Erlang B: Uma Interpretação Alternativa

 Erlang.jpg

Agner Krarup Erlang era um sujeito interessante: como funcionário da Companhia Telefônica de Copenhague, solucionou analiticamente dois problemas clássicos (mas pragmáticos) na segunda década de 1900: a) calcular quantos troncos (linhas) seriam necessários para prover um serviço telefônico de qualidade aos assinantes, e b) calcular quantas telefonistas seriam necessárias para atender com qualidade a um determinhado volume de chamadas. Até hoje as soluções encontradas por Erlang são aceitas como as corretas para ambos os problemas e utilizadas amplamente por operadoras de telecomunicações, serviços de call-center, serviços de help-desk, dentre outros usos de ordem prática. Ele é considerado o fundador de um ramo do conhecimento chamado de Engenharia de Teletráfego.

A fórmula encontrada por Erlang para o primeiro problema é conhecida como “Erlang B”:


B é a probabilidade de que chamadas sejam bloqueadas por ausência de troncos livres, dentro de uma unidade de tempo, quando a intensidade média de tráfego é de λ chamadas por unidade de tempo, e existem k troncos para servir às chamadas.

Primeiramente Erlang provou, em 1909, que o tráfego telefônico segue a Distribuição de Poisson. Não vou discorrer aqui em detalhes sobre esta que, na minha opinião, é a mais bela das distribuições discretas de probabilidades (assim como, digo de passagem, a Normal é na minha opinião a mais bela das distribuições contínuas de probabilidades).

Basicamente, a Distribuição de Poisson define que a probabilidade p de ocorrerem exatos k eventos num intervalo unitário de tempo, quando a taxa média de surgimento de eventos é de λ eventos por unidade de tempo, é dada por:


E que, nas mesmas condições, a probabilidade P de ocorrerem até k eventos é dada por


Obs. 1: p minúscula é chamada Função Massa de Probabilidade. P maiúscula é chamada Função Cumulativa da Distribuição.

Obs. 2: Para um mesmo λ, temos que p(0), p(1), p(2), … ,p(k) são eventos mutuamente exclusivos, por definição (reveja a definição de p dada acima).

Obs. 3: Pelas definições de p e P, é intuitivamente possível concluir que, para um mesmo λ, P(k)=p(0)+p(1)+ … +p(k), onde k é um inteiro positivo. Se a sua intuição não lhe permite concluir isso, segue um argumento auxiliar: para que até k eventos ocorram (i.e.: P(k)), é necessário que não tenham ocorrido mais eventos do que k (por premissa), pois se k’ eventos tivessem ocorrido (sendo k’ > k) então a nossa premissa deveria referir-se a k’, em vez de k. Outro argumento: como, por definição, i e j são eventos mutuamente exclusivos para todo i e para todo j≠i, então pela definição de Função Cumulativa de Distribuição a soma dos diversos p(i) tem que resultar em P(k), se i variar de zero a k. Se ainda assim a sua intuição não lhe permitir concluir que P(k)=p(0)+p(1)+ … +p(k), aplique a fórmula de P(k) para qualquer valor inteiro positivo de k e qualquer valor de λ maior que zero, e constate que o resultado de P(k) é a soma dos diversos p(i), variando i de zero a k.

Uma Interpretação Alternativa de “Erlang B”

Se você observar, a fórmula “Erlang B” é o quociente entre p(k,λ) e P(k,λ). Isso é bastante interessante, pois permite interpretar a probabilidade de bloqueio como sendo uma probabilidade condicional ! Literalmente, pode ser interpretada como a probabilidade de que exatas k chamadas estejam em andamento dado que não mais do que k chamadas tenham acontecido, dentro do intervalo de tempo do experimento (que é considerado uma unidade de tempo), sabendo que a taxa média de chegada de chamadas é de λ chamadas por unidade de tempo.

Demonstração informal: Pela fórmula de probabilidades condicionais, sabemos que:

Prob(N|M) = Prob(N ∩ M) / Prob(M)

Na situação acima, temos:

Premissa: no máximo k chamadas podem estar em andamento num intervalo unitário de tempo;

N é o evento de exatamente k chamadas estarem em andamento;

M é o evento de que até k chamadas tenham acontecido;

Prob(N|M) é a probabilidade de exatamente k chamadas estarem em andamento dado que no máximo k chamadas aconteceram naquele intervalo de tempo unitário.

Mas Prob(M)=p(0) + p(1) + p(2) + … + p(k), e N é um evento necessário para o evento M. Prova de que é necessário: por definição, em um intervalo unitário de tempo, P(m) é a soma de todas as probabilidades p(0)…p(m) dos diversos eventos individuais i, onde 0≤i≤m, e p(i) é probabilidade de exatamente i chamadas estarem em andamento (ex: probabilidade de exatamente zero chamada estar em andamento, probabilidade de exatamente uma chamada estar em andamento, probabilidade de exatamente duas chamadas estarem em andamento, e assim sucessivamente até m). O intervalo unitário de tempo pode ser de tamanho tão pequeno quanto queiramos (ex: 1 minuto, 1 hora, 1 dia, etc), então se num intervalo arbitrário de tempo, m fosse maior do que k, isso violaria a nossa premissa, que é a de que no máximo k chamadas podem estar em andamento dentro do intervalo sendo considerado; e se m fosse menor do que k, então pragmaticamente a nossa premissa poderia ser reformada de maneira que passássemos a tratar m como o maior número de chamadas que podem estar em andamento, em vez de k. Em termos práticos isso equivale a tornarmos k igual a m no cálculo de P(k).

Do parágrafo acima decorre que:

Prob(N ∩ M) = Prob(N)

Logo,

Prob(N|M) = Prob(N) / Prob(M)

o que equivale a:

B(k) = p(k) / P(k)

para um mesmo valor de λ.

-x-

Erlang usou um método bem mais elaborado e elegante para chegar na sua fórmula. O método acima tem o apelo de ser bem intuitivo.

-x-x-

Comentários

Postagens mais visitadas deste blog

As Leis de Newton adaptadas às Ciências Sociais e Políticas

Sobre o Óbvio

Verdades, Estatísticas e Probabilidades