Problema do colecionador de cupons

Gráfico do número de cupons, n versus o número esperado de tentativas (ou seja, tempo) necessárias para coletar todos eles, E (T)

Na teoria das probabilidades, o problema do coletor de cupons descreve os concursos "colete todos os cupons e ganhe". Ele faz a seguinte pergunta: "Se cada caixa de uma marca de cereais contém um cupom e existem n tipos diferentes de cupons, qual é a probabilidade de que mais de t caixas precisem ser compradas para coletar todos os n cupons?" Uma declaração alternativa é: Dados os n cupons, quantos cupons você espera que precise remover com substituição antes de remover cada um dos cupons pelo menos uma vez?" A análise matemática do problema revela que o número esperado de tentativas necessárias cresce na ordem de Θ ( n log ( n ) ) {\displaystyle \Theta (n\log(n))} .[a] Por exemplo, quando n = 50 são necessários, em média, cerca de 225 testes.[b] para coletar todos os 50 cupons.

Solução

Calculando o valor esperado

Seja T o tempo para recolher todos n cupons, e deixe ti ser o tempo adicional para de recolher o i-ésimo cupom depois de i - 1 cupons terem sido coletados. Trate T e Ti como variáveis aleatórias . Observe que a probabilidade de coletar um cupom inédito é p i = n i + 1 n {\displaystyle p_{i}={\frac {n-i+1}{n}}} . Portanto, t i {\displaystyle t_{i}} tem distribuição geométrica com valor esperado 1 p i {\displaystyle {\frac {1}{p_{i}}}} . Pela linearidade do valor esperado, temos:

E ( T ) = E ( t 1 ) + E ( t 2 ) + + E ( t n ) = 1 p 1 + 1 p 2 + + 1 p n = n n + n n 1 + + n 1 = n ( 1 1 + 1 2 + + 1 n ) = n H n . {\displaystyle {\begin{aligned}\operatorname {E} (T)&=\operatorname {E} (t_{1})+\operatorname {E} (t_{2})+\cdots +\operatorname {E} (t_{n})={\frac {1}{p_{1}}}+{\frac {1}{p_{2}}}+\cdots +{\frac {1}{p_{n}}}\\&={\frac {n}{n}}+{\frac {n}{n-1}}+\cdots +{\frac {n}{1}}\\&=n\cdot \left({\frac {1}{1}}+{\frac {1}{2}}+\cdots +{\frac {1}{n}}\right)\\&=n\cdot H_{n}.\end{aligned}}}

Aqui Hn é o n-ésimo número harmônico. Usando a assintótica dos números harmônicos, obtemos:

E ( T ) = n H n = n log n + γ n + 1 2 + O ( 1 / n ) , {\displaystyle \operatorname {E} (T)=n\cdot H_{n}=n\log n+\gamma n+{\frac {1}{2}}+O(1/n),}

Onde γ 0.5772156649 {\displaystyle \gamma \approx 0.5772156649} é a constante de Euler-Mascheroni .

Agora, pode-se usar a desigualdade de Markov para limitar a probabilidade desejada:

P ( T c n H n ) 1 c . {\displaystyle \operatorname {P} (T\geq cnH_{n})\leq {\frac {1}{c}}.}

Cálculo da variância

Usando a independência das variáveis aleatórias ti, obtemos:

Var ( T ) = Var ( t 1 ) + Var ( t 2 ) + + Var ( t n ) = 1 p 1 p 1 2 + 1 p 2 p 2 2 + + 1 p n p n 2 < ( n 2 n 2 + n 2 ( n 1 ) 2 + + n 2 1 2 ) = n 2 ( 1 1 2 + 1 2 2 + + 1 n 2 ) < π 2 6 n 2 {\displaystyle {\begin{aligned}\operatorname {Var} (T)&=\operatorname {Var} (t_{1})+\operatorname {Var} (t_{2})+\cdots +\operatorname {Var} (t_{n})\\&={\frac {1-p_{1}}{p_{1}^{2}}}+{\frac {1-p_{2}}{p_{2}^{2}}}+\cdots +{\frac {1-p_{n}}{p_{n}^{2}}}\\&<\left({\frac {n^{2}}{n^{2}}}+{\frac {n^{2}}{(n-1)^{2}}}+\cdots +{\frac {n^{2}}{1^{2}}}\right)\\&=n^{2}\cdot \left({\frac {1}{1^{2}}}+{\frac {1}{2^{2}}}+\cdots +{\frac {1}{n^{2}}}\right)\\&<{\frac {\pi ^{2}}{6}}n^{2}\end{aligned}}}

Como π 2 6 = 1 1 2 + 1 2 2 + + 1 n 2 + {\displaystyle {\frac {\pi ^{2}}{6}}={\frac {1}{1^{2}}}+{\frac {1}{2^{2}}}+\cdots +{\frac {1}{n^{2}}}+\cdots } (veja o problema da Basiléia).

Agora, pode-se usar a desigualdade de Chebyshev para limitar a probabilidade desejada:

P ( | T n H n | c n ) π 2 6 c 2 . {\displaystyle \operatorname {P} \left(|T-nH_{n}|\geq cn\right)\leq {\frac {\pi ^{2}}{6c^{2}}}.}

Estimativas de cauda

Um limite superior diferente pode ser derivado da seguinte observação. Seja Z i r {\displaystyle {Z}_{i}^{r}} um evento em que o i {\displaystyle i} -ésimo cupom não foi escolhido nos primeiros r {\displaystyle r} ensaios. Então:

P [ Z i r ] = ( 1 1 n ) r e r / n {\displaystyle {\begin{aligned}P\left[{Z}_{i}^{r}\right]=\left(1-{\frac {1}{n}}\right)^{r}\leq e^{-r/n}\end{aligned}}}

Assim, para r = β n log n {\displaystyle r=\beta n\log n} , temos P [ Z i r ] e ( β n log n ) / n = n β {\displaystyle P\left[{Z}_{i}^{r}\right]\leq e^{(-\beta n\log n)/n}=n^{-\beta }} .

P [ T > β n log n ] = P [ i Z i β n log n ] n P [ Z 1 β n log n ] n β + 1 {\displaystyle {\begin{aligned}P\left[T>\beta n\log n\right]=P\left[\bigcup _{i}{Z}_{i}^{\beta n\log n}\right]\leq n\cdot P[{Z}_{1}^{\beta n\log n}]\leq n^{-\beta +1}\end{aligned}}}

Extensões e generalizações

  • Pierre-Simon Laplace, mas também Paul Erdős e Alfréd Rényi, provaram o teorema do limite para a distribuição de T. Esse resultado é uma extensão adicional dos limites anteriores.
P ( T < n log n + c n ) e e c ,  as  n . {\displaystyle \operatorname {P} (T<n\log n+cn)\to e^{-e^{-c}},{\text{ as }}n\to \infty .}
  • Donald J. Newman e Lawrence Shepp fizeram uma generalização do problema do colecionador de cupons quando é necessário coletar m cópias de cada cupom. Seja T m ser a primeira vez m cópias de cada cupom são recolhidos. Eles mostraram que o valor esperado neste caso satisfaz:
E ( T m ) = n log n + ( m 1 ) n log log n + O ( n ) ,  as  n . {\displaystyle \operatorname {E} (T_{m})=n\log n+(m-1)n\log \log n+O(n),{\text{ as }}n\to \infty .}
Aqui m é fixo. Quando m = 1, obtemos a fórmula anterior para a expectativa.
  • Generalização comum, também devido a Erdős e Rényi:
P ( T m < n log n + ( m 1 ) n log log n + c n ) e e c / ( m 1 ) ! ,  as  n . {\displaystyle \operatorname {P} \left(T_{m}<n\log n+(m-1)n\log \log n+cn\right)\to e^{-e^{-c}/(m-1)!},{\text{ as }}n\to \infty .}
E ( T ) = 0 ( 1 i = 1 n ( 1 e p i t ) ) d t . {\displaystyle \operatorname {E} (T)=\int _{0}^{\infty }\left(1-\prod _{i=1}^{n}\left(1-e^{-p_{i}t}\right)\right)dt.}

Ver também

Notas

  1. Ao longo de todo artigo, log se refere à função logaritmo natural, isto é o logaritmo na base e . O uso de Θ se refere à notação grade big O.
  2. E(50) = 50 (1 + 1/2 + 1/3 + ... + 1/50) = 224.9603. A aproximação n log n + γ n + 1 / 2 {\displaystyle n\log n+\gamma n+1/2} para este valor esperado fornece 50 log 50 + 50 γ + 1 / 2 195.6011 + 28.8608 + 0.5 224.9619 {\displaystyle 50\log 50+50\gamma +1/2\approx 195.6011+28.8608+0.5\approx 224.9619} .

Referências

  1. Flajolet, Philippe; Gardy, Danièle; Thimonier, Loÿs (1992), «Birthday paradox, coupon collectors, caching algorithms and self-organizing search», Discrete Applied Mathematics, 39 (3): 207–229, doi:10.1016/0166-218x(92)90177-c 

 

  • Blom, Gunnar; Holst, Lars; Sandell, Dennis (1994), «7.5 Coupon collecting I, 7.6 Coupon collecting II, and 15.4 Coupon collecting III», Problems and Snapshots from the World of Probability, ISBN 0-387-94161-4, New York: Springer-Verlag, pp. 85–87, 191, MR 1265713 .
  • Dawkins, Brian (1991), «Siobhan's problem: the coupon collector revisited», The American Statistician, 45 (1): 76–82, JSTOR 2685247, doi:10.2307/2685247 .
  • Erdős, Paul; Rényi, Alfréd (1961), «On a classical problem of probability theory» (PDF), Magyar Tudományos Akadémia Matematikai Kutató Intézetének Közleményei, 6: 215–220, MR 0150807 .
  • Laplace, Pierre-Simon (1812), Théorie analytique des probabilités, pp. 194–195 .
  • Newman, Donald J.; Shepp, Lawrence (1960), «The double dixie cup problem», American Mathematical Monthly, 67 (1): 58–61, JSTOR 2308930, MR 0120672, doi:10.2307/2308930 
  • Flajolet, Philippe; Gardy, Danièle; Thimonier, Loÿs (1992), «Birthday paradox, coupon collectors, caching algorithms and self-organizing search», Discrete Applied Mathematics, 39 (3): 207–229, MR 1189469, doi:10.1016/0166-218X(92)90177-C .
  • Isaac, Richard (1995), «8.4 The coupon collector's problem solved», The Pleasures of Probability, ISBN 0-387-94415-X, Undergraduate Texts in Mathematics, New York: Springer-Verlag, pp. 80–82, MR 1329545 .
  • Motwani, Rajeev; Raghavan, Prabhakar (1995), «3.6. The Coupon Collector's Problem», Randomized algorithms, ISBN 9780521474658, Cambridge: Cambridge University Press, pp. 57–63, MR 1344451 .

Ligações externas