Archive for the ‘Estatística’ Category

Inferência Estatística – Agora Vai!

domingo, novembro 19th, 2017

Olá!

Preparei um arquivo para introdução didática à inferência estatística! E por que? Porque sei que muita gente tem dificuldade em entender os passos básicos da inferência, acreditando que tudo isso é fruto de mágica ou macumbaria! (risos). Na verdade, eu  mesmo, tive muita dificuldade de entender a estatística inferencial, demorando muito tempo para cair a ficha!

Então, criei uma planilha com um exemplo didático, passo a passo, para você entender tudo certinho! Para aqueles que já conhecem e entendem o exemplo didático da planilha será maçante, mas para aqueles que estão sendo introduzidos no assunto ou que vem apresentando dificuldades de entendimento, tenho certeza que ajudará.

Clique no link abaixo para baixar o arquivo excel! Forte abraço!

Inferencia estatística – agora vai!

Professor Murilo

 

obs: se quiserem entender como utilizar o gerador randômico de números aleatórios que foi utilizado na planilha é só me escrever (murilocastellano@uol.com.br). Só por curiosidade, eu gerei as mil amostras (de tamanho mil cada uma) de eleitores segundo a distribuição de Bernouilli com P = 30%.

A Teoria do Risco Financeiro – Parte II

domingo, novembro 19th, 2017

Continuando, vimos que Markowitz ensinou-nos a trabalhar com carteiras para obter o máximo de diversificação do risco. Inclusive demonstrou que uma combinação dos ativos de risco pode produzir uma carteira especial, denominada carteira de mínima variância (mínimo risco) que produz um retorno maior com risco menor do que uma aplicação individual no ativo de menor risco.

Do ponto de vista matemático o risco total de uma carteira, medido pelo desvio-padrão, depende dos riscos individuais (desvio-padrões de cada um dos ativos) e das correlações medidas duas a duas entre os diferentes pares de ativos passíveis de serem formados. Para n ativos a fórmula trabalha com n termos de risco individual e n.(n-1)/2 termos de correlações. Ou seja, para uma carteira com dez ações, teremos 10 termos de riscos individuais (riscos de cada um dos dez ativos) e 45 termos de correlação. O número 45 reflete o total de combinações de ações duas a duas para as 10 ações. Pela quantidade de termos de correlação na fórmula de Markowitz percebe-se a importância das correlações na determinação do risco final da carteira (desvio-padrão da carteira). Vamos colocá-la abaixo mas não é para assustar, só para você visualizar o que escrevemos aqui neste parágrafo.

A letra sigma representa o desvio-padrão. O primeiro que aparece no lado esquerdo da fórmula é o desvio-padrão da carteira elevado ao quadrado que também é chamada de variância da carteira. No lado direito note que o primeiro somatório representa os n termos de risco individual e o segundo mostra a explosão de termos de correlação em função das combinações possíveis dos n ativos, dois a dois. Os w representam as proporções dos ativos na carteira, a letra rô (que parece um pezinho) representa a correlação entre um par de ativos.

Pronto, deixemos a matemática de lado! Tava doendo? Agora passou! (risos). Vamos falar linguagem de gente. Pois bem, num mundo repleto de ativos de risco em que o investidor é avesso ao risco e que se pode formar carteiras, devemos tomar a teoria do portfólio e calcular a fronteira eficiente. Ela vai mostrar todas as carteiras eficientes do menor risco para o maior risco. O maior risco sempre corresponderá à aplicação individual no ativo de maior risco e maior retorno. Aqui, por hipótese, supomos que na medida em que se aumenta o risco, aumenta-se a expectativa de retorno. Veja a figura baixo para a fronteira eficiente de Markowitz.

Note que tem uma hipérbole superior que começa na carteira de risco mínimo, apontada pela seta. Esta é a chamada fronteira eficiente de Markowitz. A parte de baixo (a semi hipérbole abaixo da seta) não faz parte da fronteira eficiente, pois é dominada pela fronteira eficiente. Note que no rumo do risco 19% tem um ponto com retorno esperado de 6,1%. Mas esta carteira é ineficiente e dominada pela carteira com risco 19% e retorno esperado de 6,4%. Conseguiu visualizar? Então, a fronteira eficiente de Markowitz é a semi hipérbole superior.

Agora, veja a próxima figura que ilustra a diversificação crescente mas limitada do acréscimo de ativos de risco na carteira:

Também há o risco sistemático ou não diversificável que não pode ser minimizado, mas previsto, sendo relacionado com as variações de mercado.

Veja que a hipérbole que mede a relação retorno esperado x risco (medido pelo desvio-padrão da carteira) vai se aproximando assintoticamente de uma linha horizontal, indicando não haver mais possibilidade de diversificação. Atinge-se um patamar mínimo de risco da carteira depois de se eliminar os muitos riscos específicos, conforme a reta vermelha pontilhada. Examinando isso, William Sharpe teve uma idéia de criar uma nova métrica para medir este risco que sobra após a diversificação que explicaremos melhor mais à frente.

Vamos voltar a Markowitz! Olha, você viu o tamanho da fórmula que calcula o desvio-padrão da carteira. É enorme! Lá em 1952 não era nada fácil resolver este problema pois não se tinha os computadores que temos hoje. Então, Markowitz foi financiado por grandes empresas que patrocinaram as suas pesquisas para desenvolver algoritmos eficientes para o cálculo dos pontos da fronteira eficiente. Hoje isso é bem mais tranquilo, nós citamos que o solver do Excel nos socorre para carteiras com tamanho próximo de 50 ativos. Entretanto, hoje em dia temos softwares muito mais poderosos e específicos para resolver problemas de otimização, que aparecem como módulos do SPSS, do SAS e muitos outros pacotes de estatística ou matemática. Há também um SOLVER profissional, mais caro do que aquele que vem com o Excel.

Num cenário de cálculos complexos numa era com dificuldade em se obter computadores sofisticados como os que temos hoje, Sharpe teve uma sacada para simplificar e evoluir a teoria de Markowitz. Veja a figura abaixo:

Note que a semi hipérbole FM é a fronteira eficiente de Markowitz para os ativos de risco. O ponto Rf corresponde ao ativo livre de risco e o ponto M representa a carteira de mercado. Uma carteira com todos os ativos de mercado nas suas proporções naturais. Então, Sharpe acrescentou premissas à teoria de Markowitz: definiu que o investidor poderia operar com o ativo livre de risco e com a carteira de mercado. Ou seja, poderia manter uma carteira tão diversificada como a carteira de mercado combinado com uma aplicação no ativo livre de risco. Com isso, Sharpe demonstra que a reta PMQ é a verdadeira e nova fronteira eficiente de mercado, dominando a fronteira eficiente de Markowitz.

Vamos parar para respirar!

Vou resumir a idéia de Sharpe: se o investidor pode contar com aplicações no ativo livre de risco e em carteiras que são frações da carteira de mercado ele montará carteiras que ficarão na reta PMQ, a chamada linha do mercado de capitais. Note então que um investidor preferirá navegar neste mundo do que ficar só no mundo de Markowitz onde se operaria apenas com ativos de risco. Na prática esta teoria tem premissas muito mais exigentes do que as de Markowitz, pois considera como sendo trivial operar com uma carteira amplamente diversificada, que teria todos os ativos de mercado nas suas proporções naturais. Ora, isso é obviamente muito difícil de se montar. O que se faz, na prática, é se admitir que a carteira teórica da bolsa é uma aproximação dessa carteira de mercado da teoria de Sharpe. O ativo livre de risco pode ser aproximado pelos títulos do tesouro. No caso do nosso país, o Ibovespa com as suas 70 ações (aproximadamente) seria a tal carteira de mercado.

Muito bem, com isso, Sharpe indicou que nesse mundo teórico que criou o que importa é o chamado risco sistêmico que cada ativo tem e não o seu risco total medido pelo desvio-padrão. A mesma coisa vale para as carteiras, que são combinações de ativos de risco com o ativo livre de risco. Para medir esse risco sistêmico ou sistemático inerente a cada ativo Sharpe criou a métrica Beta (βp). O Beta corresponde à razão entre a covariãncia do ativo com o mercado (Ibovespa, por aproximação) e a variancia da carteira de mercado. Desculpe, eu tinha que citar isso. Mas vamos tentar traduzir a matemática em português claro. O Beta de cada ativo mede o quanto ele varia com relação ao mercado. Isto porque o investidor tem sempre um monte de ativos na carteira e sabe que a própria carteira cumpre a função de diversificar os riscos específicos, praticamente reduzindo-os a zero. Então, o que interessa é o risco sistêmico de cada ativo e o risco sistêmico da carteira. Este último é medido pela ponderação dos riscos sistêmicos de cada ativo na carteira, de acordo com as suas proporções. Veja a figura abaixo:

Viu que o Beta da Carteira (βp) é a combinação linear dos betas de cada um dos ativos? Se você montar uma carteira com Beta final maior do que 1 você está sendo um investidor agressivo, o seu risco seria em tese maior do que o risco Ibovespa.

Resumindo, Sharpe sugeriu que investidores que trabalhassem com carteias amplamente diversificas (do tamanho da diversificação natural do mercado) esquecessem o desvio-padrão como métrica para calcular o risco e migrassem para o tal Beta, que mediria apenas o risco sistêmico de cada um dos ativos. Depois utilizaria as proporções dos ativos na carteira para calcular o Beta final da carteira ou o risco sistemático da carteira.

Por fim, registro que a idéia de Sharpe permitiu criar uma fórmula das mais famosas, o CAPM (Capital Asset Price Method), para encontrar o preço justo dos ativos. É que o cara estabeleceu uma regra entre retorno esperado e risco sistemático (medido pelo beta) dos ativos. Vide figura abaixo:

Então, Sharpe e outros que o sucederam criaram uma fórmula do tipo: me dê o nível de risco sistemático de um ativo, a taxa livre de risco da economia e o retorno da carteira de mercado que eu lhes digo o quanto este ativo deveria render no futuro!

Uma teoria lindíssima completamente alinhada com a teoria anterior, a de Markowitz, mas que enfrenta problemas na prática. Por exemplo, montar carteiras diversificadas ainda é um problema para a maioria dos investidores, pois tem um custo proibitivo devido às taxas de corretagem, emolumentos e outros. Se você não pode trabalhar com carteiras muito diversificadas, melhor ficar só com a teoria de Markowitz e utilizar o desvio-padrão e as correlações para calcular o risco total da carteira. Um outro ponto importante de se ressaltar. Num próximo artigo vamos mostrar algumas limitações para aplicar o beta ou o modelo CAPM para precificação de ativos ou mesmo para descontar fluxos de caixa e avaliar empresas, bem como algumas condições de contorno.

A Teoria do Risco Financeiro – Parte I

sexta-feira, novembro 17th, 2017

Uma das passagens mais bonitas de FINANÇAS é a construção da teoria do risco, iniciada por Harry Markowitz, complementada por William Sharpe e melhorada por muitos outros pesquisadores, como Franco Modigliani, Merton Miller, Fisher Black, Myron Scholes, Robert Merton, Eugene Fama e muitos outros.

Harry Markowitz era um jovem estudante com 25 anos quando publicou o artigo Seleção de Portfolios em 1952, iniciando um importante capítulo nas ciências econômicas, ou ainda refundando a teoria financeira, o que mais tarde, em 1990, valeria um prêmio Nobel. De tão vanguardista, a teoria de Markowitz, constante de sua tese de doutorado, foi apreciada  pelo grande economista Milton Friedman, membro da banca que avaliou o seu trabalho na Universidade de Chicago, não sendo reconhecida como  sendo  uma contribuição para a ciência econômica, mas apenas  um feito matemático.

Atendendo aos pedidos de alunos e amigos,  utilizarei o mínimo de terminologia matemática para explicar a tal teoria do risco. Muito bem, Markowitz introduziu a medida do risco individual como sendo o tal desvio-padrão da série de retornos históricos de um ativo e o retorno esperado como sendo a média dos mesmos retornos. Ou seja, é preciso olhar para trás e observar os retornos passados e a partir daí, com cálculos simples, calcular o tal retorno esperado do ativo e o seu risco individual.  Esses cálculos produzem estimativas dos verdadeiros valores do retorno e do risco futuros. Os cálculos em si são do campo da matemática e estatística, ciências formais, entretanto acreditar que os investidores se importam com essas métricas e as reconhecem como direcionadoras de seus investimentos é tema de finanças, ou seja, constituem premissas da teoria de Markowitz.  Aliás, segundo a teoria do portfolio de Markowitz o investidor é avesso a risco, ou seja, exige mais retorno diante de mais risco. Além disso, o investidor é racional e deseja maximizar o retorno para um certo nível de risco ou minimizar o risco para um certo nível de retorno.

O que significa o fato de um ativo A ter retorno esperado de 20,00% ao ano e risco de 10,00% ao ano? Significa que há 99% de chance de o retorno variar entre o mínimo de -5,7% e 45,76%. Não vamos detalhar este cálculo, mas o leitor deve entender que há fórmulas ou softwares que permitem calcular os intervalos de retornos segundo um padrão de chance. No presente caso, admitimos que o retorno do ativo A segue uma tal distribuição normal de probabilidade, um caso particular da teoria de Markowitz, mas que aqui nos é útil do ponto de vista didático e em nada limita a compreensão da teoria.  Se um ativo B tem retorno esperado de 20,00% ao ano e risco de 20,00%, o intervalo de variação do retorno, com 99% de confiança, é [-31,52%; 71,52%]. Note que o ativo B é muito mais volátil, muito mais arriscado do que o ativo A. Se ao investidor racional só restar escolher entre os dois ativos, ele com certeza escolherá o ativo A que tem menor risco e o mesmo retorno de 20% ao ano.

Para Markowitz se os retornos fossem diferentes bem como os riscos individuais, o investidor, tendo que escolher apenas um dos ativos, escolheria aquele ativo que satisfaz o seu apetite de risco. Ou seja, entre o ativo A [20%; 10%] e um ativo C [25%;15%] a escolha não seria tão simples, já que os ativos tem retornos e riscos distintos entre si, devendo o investidor racional escolher aquele que atender ao seu apetite de risco x retorno. Por exemplo, uma pessoa extremamente arrojada, amante do risco, não teria problema em escolher o ativo C como sendo o seu ativo ideal para investimento. O contrário, bem mais comum na prática, um investidor muito avesso ao risco, escolheria o ativo A por ter menor risco anual.

Mas a grande novidade inserida no famoso artigo de Markowitz, lá em 1952, foi a premissa de que o investidor pode e deve trabalhar com carteiras de ativos em vez de ativos individuais. Isto porque ele ensina que a diversificação de risco obtida com a montagem de carteiras tem vantagens sobre as aplicações individuais. A medida de diversificação é dada pela correlação entre os ativos.  A correlação estatística varia entre -1 e + 1. Se a correlação é igual a -1 os ativos são negativamente correlacionados, tendo os seus retornos comportamentos contrários. Ou seja, enquanto um ativo vai muito bem, o outro vai muito mal, em termos de retorno financeiro. Se a correlação é igual a +1, os ativos são perfeitamente correlacionados, não havendo diversificação de risco entre eles.  Se aumenta o retorno de um, também aumento o retorno do outro na mesma proporção. Se a correlação é igual a zero, os ativos tem retornos independentes entre si, nada tendo a ver com o outro, produzindo bastante diversificação de risco.

Markowitz então matematizou aquilo que já era percebido intuitivamente, que a mistura de ativos trás diversificação do risco tal e qual a colocação  dos ovos em cestas diferentes. A novidade, portanto, foi o modelo para quantificar esta diversificação e os percentuais que o investidor deveria investir em cada um dos ativos constantes de uma carteira, de maneira a se ter um retorno esperado máximo para um certo nível de risco ou um risco mínimo para um dado nível de  retorno.

Voltemos ao mundo dos ativos A [20%;10%] e C[25%;15%] sabendo agora que a correlação entre eles é igual a 0,2 (muito baixa) e que o investidor avaliará as possíveis carteiras de dois ativos passíveis de serem formadas. Segundo a teoria do portfolio é possível combinar os ativos A e C para gerar uma carteira que produz retorno esperado maior do que  20% ao ano e risco menor do que os 10% do ativo A. A saber, se combinarmos 73,58% do ativo A com 26,42% do ativo C, teremos uma carteira com retorno esperado de 21,32% ao ano e risco de 9,03%. Olha a magia da diversificação! Do ponto de vista matemático, tudo isso ocorreu porque o risco da carteira tem uma relação não linear com os riscos individuais. Mas, evitando a explicação matemática, podemos dizer que isso ocorreu porque os ativos são não correlacionados (correlação menor que do que +1). Ou seja, o fato de termos ativos que historicamente tiveram comportamentos diferentes num mesmo momento histórico indica que também se comportarão assim no futuro. Se um for muito mal, com retornos negativos, isto poderá ser compensado pelo fato de que o outro terá um retorno positivo.

De posse da teoria de Markowitz poderíamos calcular um conjunto de pontos onde dado um nível de risco, variando do menor valor possível, 9,03%,  até o máximo valor (15% ao ano),  teríamos a chamada fronteira eficiente de Markowitz.  No gráfico a seguir, o ponto P corresponde à carteira de mínima variância (mínimo risco), resultado da combinação de 73,58% no ativo A e 26,42% no ativo C. O ponto W corresponde ao investimento integral no ativo C, com retorno de 25% ao ano e risco de 15%.

Os pontos R, T e U são pontos de investimentos ineficientes que deveriam ser evitados. Assim, em vez de aplicar na carteira U ou T, o investidor aplicaria na carteira eficiente S, pertencente á fronteira eficiente de Markowitz. O ponto S representa a carteira que produz o máximo retorno para o nível de risco X2 ou a carteira que produz o mínimo risco o nível de retorno Y2.

É possível utilizar um software de otimização não linear tão simples quanto o SOLVER do MS Excel para resolver pequenos problemas de se determinar a fronteira eficiente de uma carteira com até uns cinquenta ativos. Isto na prática é suficiente para garantir uma boa diversificação de risco.

Num próximo artigo apresentaremos a evolução trazida por William Sharpe, um pesquisador também laureado com o prêmio Nobel, que sucedeu Markowitz na pesquisa do risco financeiro e que evoluiu a teoria de Markowitz de risco de carteira para risco sistemático. O seu trabalho não desqualificou o de Markowitz, muito pelo contrário, serviu-se dele para aprimorar a teoria do risco em finanças. Admitindo que seja trivial operar com carteiras amplamente diversificadas que, no limite, reduzem os riscos específicos a quase zero, é possível mudar de métrica, abandonando-se o desvio-padrão da carteira (medida do risco total) para o beta, uma nova métrica que mede o nível de risco sistemático.

Estatística sem medo: Inferência!

sexta-feira, março 17th, 2017

Uma das questões que assusta boa parte dos alunos no estudo da Estatística é a parte inferencial. Normalmente, enquanto o aluno está aprendendo estatística descritiva a coisa vai bem. Na Estatística Descritiva, procura-se reunir informações sobre determinado fenômeno, evento, processo ou qualquer outra coisa que seja objeto de estudo e que se procura descrever de forma resumida por alguns poucos números, tabelas ou gráficos.

Quando o aluno sai da média para o desvio-padrão o medo já começa a pipocar! Certo? É preciso ter calma para o medo não paralisar e impedir um avanço natural! Na verdade são conceitos muito simples. Há coisa muito mais difícil a aprender, por exemplo, na nossa língua pátria.

Por falar em média, vamos lá. A média é um número com o qual tentamos representar um conjunto de observações de forma simples. Ela representa uma espécie de centro de gravidade ou de massa, quando se faz uma analogia dos dados com uma peça física, por exemplo, um disco. Então, se fôssemos representar um disco LP (Long Play, esse é antigo) ou um CD (Compact Disc), a média ficaria ali naquele furinho central. O LP costumava ser grande, muito maior do que um compact disc de hoje.

Agora, observe o seguinte, quando tentamos representar uma coleção de observações pela média, perdemos muita informação. Na analogia com o LP, perdemos muito mais do que no CD. Há muitos pontos pretos muito distantes do centro tanto no caso do LP quanto do CD, mas isso é mais severo no caso do LP.  Veja as figuras.

 

Então, se alinhássemos os dois furinhos centrais dos discos, as médias seriam as mesmas. Mas haveria muito mais dispersão nos pontos do LP do que do CD. O que é dispersão? É um conceito que traduz a idéia de variação das diferentes observações em relação ao ponto central.  De novo, há muitos pontos bem mais distantes do centro no caso do LP do que no caso do CD. Costumeiramente utilizam o desvio-padrão ou a variância para medir esta tal dispersão. Nós não vamos aqui apresentar as fórmulas e os cálculos, queremos transmitir apenas o conceito, a noção. Depois você olha num livro de estatística as fórmulas. Resumidamente, a dupla (média, desvio-padrão) passa melhor informação do que somente a média. Concorda?

E a tal Inferência Estatística?

Esta sim mete medo! Né? Vamos tentar desmistificá-la, ajudando-o a entender o seu teorema mais fundamental, o ponto de partida de tudo, o chamado Teorema do Limite Central. Porque se você entender isso você se sentirá mais confortável para enfrentar o resto!

A inferência não tenta descrever nada,  outrossim tenta prever, estimar, alguma coisa, por exemplo a média ou a proporção de determinada variável em uma população. Penso que o exemplo mais conhecido de todos é a estimativa do percentual de votos que um candidato terá numa eleição. Ou seja, a partir de uma amostra obtida por pesquisa com pessoas na rua (ou por telefone), estima-se qual o percentual de votos que o candidato alcançará na eleição.

Outros exemplos são a estimativa de proporções ou taxas de defeitos num determinado processo produtivo e a estimativa da altura média dos soldados de um batalhão. Toma-se uma pequena amostra (porque os objetos podem ser caros e serão destruídos no processo de amostragem) para se falar (inferir) sobre o todo. A partir da análise da proporção de defeitos da amostra e a aplicação de algumas fórmulas chega-se a estimativa da proporção de defeitos em toda a população. No caso da estimativa da altura média, em vez de se realizar um censo com todos os cinco mil soldados de uma unidade, pode-se tomar uma pequena amostra deles para estimar a altura média de todo o conjunto.

As amostras citadas aqui são aleatórias! O que é isso? São amostras onde os elementos são sorteados, são gerados ao acaso e cada um deles tem a mesma chance de ser sorteado. Isso é muito importante. A inferência estatística está assentada no cálculo de probabilidades (assunto da matemática!). Então, é muito importante que as amostras sejam do tipo aleatórias de forma a permitir realizar a inferência medindo nela um certo grau de erro. Mais à frente isso ficará mais claro.

E o tal Teorema do Limite Central? Que bicho é esse?

Esse teorema garante que as médias amostrais tem distribuição normal!

Meu Deus, começou! O aluno já deve estar pensando que passamos para o terreno de Marte! (risos).

Não se preocupe com a fórmula horrorosa da Curva Normal ou Curva de Gauss. Apenas pense de forma prática: alguém que gosta muito de matemática (provavelmente, muito mais do que você que está lendo isso!) calculou tudo para você. É só aproveitar. Ele, sabendo que muitos fenômenos da natureza, poderiam ser modelados/explicados por esta curva normal, deduziu a equação desta curva e deixou tudo prontinho para você.

Veja o jeitão da curva normal

 

Quando você diz que uma determinada variável tem uma distribuição normal ou um comportamento normal, você está dizendo que se você plotar num gráfico os diferentes valores que você coletou (aleatoriamente) desta variável ela terá um jeitão conforme a figura acima. Supondo que você fosse retirando alturas aleatórias de um livro que contém o cadastro detalhado de cada soldado de um batalhão. Há uma grande chance de a maior parte das alturas ficarem na parte central da curva. Mas é possível que apareçam algumas poucas alturas de soldados muito baixos e de soldados muito altos. Eles ficarão nos extremos da tal curva normal. Então, na horizontal do gráfico acima se mede a distância até o centro e as alturas ou áreas entre uma altura e outra a probabilidade de se ter alturas no intervalo. Na figura acima o ponto zero corresponde ao valor central ou altura média. Note que há 68,26% de alturas situadas entre o ponto “-1” e o ponto “1”. O que é isso? Esse 1 e esse -1 representam um desvio-padrão à direita da média e um desvio-padrão à esquerda da média. Vamos supor que a média deste batalhão fosse 1,60 m e o desvio-padrão 0,10 m. Isso quer dizer que 68% das observações (dos soldados) tem altura entre 1,50 e 1,70 m.

Então, note que para caracterizar uma distribuição normal você precisa de dois parâmetros: média e desvio-padrão. De posse desses dois parâmetros você tem uma curva normal perfeitamente definida.

E o tal Teorema do Limite Central? Então, tomando como exemplo a questão das alturas dos soldados do batalhão, este teorema garante que se você tivesse muita paciência e fosse retirando amostras aleatórias de, digamos, 30 soldados e anotando a média de cada amostra, esta coleção de médias amostrais teria uma distribuição normal com parâmetros conhecidos. A média desta nova distribuição seria igual a média da população original (e desconhecida, porque você não fez o censo!) e o desvio-padrão seria menor, dado pela fórmula dp da população/raiz (n), onde n é o tamanho da amostra.

Agora foi para fundir a cuca, né? Calma!

Mas que história é essa, eu quero estimar a altura média de soldados do batalhão e você fica pedindo para eu retirar muitas amostras aleatórias de tamano 30?! Não, só estou colocando esta questão por didatismo. Na prática, conforme você verá ao final, você tomará uma única amostra de 30 soldados para estimar a altura média da população.

Voltemos à questão da tal Distribuição Amostral de Médias. Sim, ela é uma curva normal, com centro na média da população e desvio-padrão muito menor do que o da população. E daí? Eu não tenho nem a média e muito menos o desvio-padrão da população. Certo, mas diz a estatística que podemos utilizar a média da amostra e o desvio-padrão da amostra como estimativa para os parâmetros da população.

Então, vamos supor que a média da amostra foi 1,62 m e que  o desvio-padrão foi de 0,12 m. Ora, com base no Teorema do Limite Central, a média da distribuição amostral de médias (dam) é igual a 1,62 e o desvio-padrão da tal dam é 0,12/raiz(30) que produz o valor 0,02 m ou dois centímetros.

Com base nesses dois parâmetros podemos realizar cálculos de probabilidade pois uma curva normal é propícia a isso. E tudo já se encontra tabelado ou programado em máquinas de calcular ou computadores.

Então, se fôssemos retirando amostras de 30 soldados seguidamente, tudo de forma aleatória, haveria uma chance muito grande, cerca de 68,26% de que as médias dessas amostras ficassem entre 1,60 (média menos um desvio-padrão) e 1,64 m (média mais um desvio-padrão).  Indo para o extremo direito da curva, distante três desvio-padrões do centro, teríamos a altura 1,60 + 3 x 0,02 = 1,66. Isto significa que a chance de encontramos médias de amostras (de trinta soldados) superior a 1,66 é de apenas 0,13%. Olhe no extremo direito da figura correspondente à curva normal.

Bem, finalizando, vamos fazer a nossa estimativa intervalar para a média da altura dos soldados do batalhão com base na tal amostra de média 1,62 e desvio-padrão igual a 0,12. Ora, a dam tem por parâmetros, média igual a 1,62 e dp igual a 0,02. Vamos estimar a nossa altura média no intervalo entre – 3 dp e + 3dp, conforme ilustrado na figura da curva normal. Isto significa que vamos deixar 0,13% de área à direita do ponto extremo direito e o mesmo no extremo esquerdo. Então, dizemos que fazemos uma estimativa com 99,74% de confiança estatística. Ou, com 0,26% de chance de estarmos enganados, ou de significância estatística.

Então, a nossa estimativa intervalar com 99,74% de confiança é:

Altura Média no intervalo [1,56  ,    1,68].

A estatística é humilde! Ela não consegue garantir que a altura média da população é exatamente 1,62 m. Ela apenas informa que há uma grande chance de esta média estar entre 1,56  e 1,68 m.

 

 

Uma comparação entre FGC e FGCOOP!

quarta-feira, março 15th, 2017

 

O FGC é o Fundo Garantidor de Crédito dos bancos pertencentes ao Sistema Financeiro Nacional (SFN) e o FGCOOP o Fundo Garantidor de Crédito das cooperativas que compõem o chamado Sistema Nacional de Crédito Cooperativo (SNCC). Ambos informam cobrir até R$ 250 mil por cliente num determinado banco ou cooperativa que vier a ter o seu funcionamento interrompido pelo Banco Central, via processo de liquidação extra-judicial.

O FGCOOP foi autorizado a funcionar pelo Banco Central do Brasil em 2014, quando alguns fundos de cobertura ligados a sistemas nacionais foram desmontados e apenas uma pequena  parte desses recursos transferidos para o FGCOOP, já que o grosso do dinheiro foi devolvido às cooperativas participantes.

Examinando os balancetes de bancos e de cooperativas, posição de novembro/16, no site do Banco Central, encontramos os maiores volumes de depósitos por bancos e/ou cooperativas que em tese estariam cobertos pelos respectivos fundos, FGC para os clientes bancários, FGCOOP para os associados a cooperativas de crédito.

A seguir apresentamos uma Tabela Comparativa para os dois fundos.

    VCG –> Volume de Contas Garantidas
    PSF –> Patrimônio Social do Fundo

Note que o FGC mantém recursos para cobertura dos valores garantidos na ordem de 3,09% enquanto o FGCOOP possui apenas 0,56%.  Em suma, o FGC tem 56,938 bilhões de reais para fazer frente ao total de depósitos de R$ 1.842,84 bilhões. O FGCOOP possui R$ 581 milhões para fazer frente a R$ 102,92 bilhões.

No caso do FGC há 5 grandes bancos que possuem, cada um deles, saldos de depósitos maiores do que o Patrimônio Social do Fundo (PSF). Esses valores somados chegam a R$ 1.644,22 bilhões e representam 28,88 vezes o PSF do FGC, que é de R$ 56,938 bilhões.

No caso do FGCOOP há 32 cooperativas de crédito com  saldo de depósitos acima do PSF do fundo. Esses valores de depósitos somados totalizam R$ 30,88 bilhões, o que representa 53,15 vezes o valor do patrimônio social do próprio FGCOOP (R$ 0,581 bilhões).

O FGC divulga o percentual dos depósitos que são garantidos, ou seja, depósitos abaixo de R$ 250 mil, cerca de 52%. O FGCOOP não divulga este indicador. Então, por simplificação, resolvemos comparar os saldos totais de depósitos com os respectivos PSF dos fundos.

Note que, no caso do FGC, os cinco grandes bancos que têm valores de depósitos superiores ao PSF  são os denominados “Too Big to Fail – Muito grandes para falir”.  São bancos extremamente diversificados, em termos de setor econômico e geografia dos créditos concedidos e que muito provavelmente o governo federal protegeria de uma bancarrota que pudesse contaminar a economia, levando prejuízo a muitas pessoas. Dá a impressão que se considerou as 32 cooperativas como análogas aos cinco grandes bancos, ou seja, que as mesmas cooperativas foram tomadas como sendo muito grandes para quebrar!

Será que a analogia é válida? Os cinco bancos em tela tem patrimônio líquido superior a R$ 10 bilhões e são bastante diversificados, conforme já salientado. E as cooperativas?  Apenas a maior das 32 cooperativas em tela tem patrimônio superior a R$ 1 bilhão. A menor delas tem Patrimônio Líquido de R$ 200 milhões.  Quatorze dessas trinta e duas cooperativas pertencem a um único sistema cooperativista organizado em nível nacional. Quatro dessas cooperativas estão localizadas numa mesma região e podem ter crédito concentrado em um mesmo setor econômico.

Aparentemente, a analogia em tela não é válida. Com a devolução dos recursos dos fundos privados às cooperativas, deixou-se o FGCOOP numa situação de maior risco, quando se compara com o seu irmão FGC. E se duas ou três cooperativas viessem a apresentar problemas simultaneamente, como seria exercida a garantia aos depositantes?  Os valores não cobertos seriam repassados a quem? aos contribuintes?

Acrescente-se aí o fato de que o Superior Tribunal de Justiça já disse não haver solidariedade presumida entre as entidades componentes de um mesmo sistema cooperativista de crédito, desobrigando o banco cooperativo de indenizar situações de perda de sócios nas cooperativas de crédito.

Penso que, no mínimo, o Banco Central deveria exigir um aperfeiçoamento da Gestão de Riscos dos grandes sistemas cooperativistas de crédito, responsáveis por boa parte das 32 cooperativas em tela,  notadamente enquanto o FGCOOP não completar o seu processo de capitalização.  Quem sabe até induzir nos sistemas cooperativistas organizados em nível nacional uma reorganização de diretorias e cargos de maneira a torná-los mais sinérgicos e menos sujeitos aos impactos que decorrem de conflitos de interesses inerentes ao cooperativismo de crédito. Ou ainda, exigir um reforço de garantia por parte dos sistemas cooperativistas que jurisdicionam as cooperativas com depósito a descoberto, com relação ao PSF do fundo.

Com a palavra o Banco Central!