Archive for the ‘Matemática’ Category

Inferência Estatística – Agora Vai!

domingo, novembro 19th, 2017

Olá!

Preparei um arquivo para introdução didática à inferência estatística! E por que? Porque sei que muita gente tem dificuldade em entender os passos básicos da inferência, acreditando que tudo isso é fruto de mágica ou macumbaria! (risos). Na verdade, eu  mesmo, tive muita dificuldade de entender a estatística inferencial, demorando muito tempo para cair a ficha!

Então, criei uma planilha com um exemplo didático, passo a passo, para você entender tudo certinho! Para aqueles que já conhecem e entendem o exemplo didático da planilha será maçante, mas para aqueles que estão sendo introduzidos no assunto ou que vem apresentando dificuldades de entendimento, tenho certeza que ajudará.

Clique no link abaixo para baixar o arquivo excel! Forte abraço!

Inferencia estatística – agora vai!

Professor Murilo

 

obs: se quiserem entender como utilizar o gerador randômico de números aleatórios que foi utilizado na planilha é só me escrever (murilocastellano@uol.com.br). Só por curiosidade, eu gerei as mil amostras (de tamanho mil cada uma) de eleitores segundo a distribuição de Bernouilli com P = 30%.

A Teoria do Risco Financeiro – Parte I

sexta-feira, novembro 17th, 2017

Uma das passagens mais bonitas de FINANÇAS é a construção da teoria do risco, iniciada por Harry Markowitz, complementada por William Sharpe e melhorada por muitos outros pesquisadores, como Franco Modigliani, Merton Miller, Fisher Black, Myron Scholes, Robert Merton, Eugene Fama e muitos outros.

Harry Markowitz era um jovem estudante com 25 anos quando publicou o artigo Seleção de Portfolios em 1952, iniciando um importante capítulo nas ciências econômicas, ou ainda refundando a teoria financeira, o que mais tarde, em 1990, valeria um prêmio Nobel. De tão vanguardista, a teoria de Markowitz, constante de sua tese de doutorado, foi apreciada  pelo grande economista Milton Friedman, membro da banca que avaliou o seu trabalho na Universidade de Chicago, não sendo reconhecida como  sendo  uma contribuição para a ciência econômica, mas apenas  um feito matemático.

Atendendo aos pedidos de alunos e amigos,  utilizarei o mínimo de terminologia matemática para explicar a tal teoria do risco. Muito bem, Markowitz introduziu a medida do risco individual como sendo o tal desvio-padrão da série de retornos históricos de um ativo e o retorno esperado como sendo a média dos mesmos retornos. Ou seja, é preciso olhar para trás e observar os retornos passados e a partir daí, com cálculos simples, calcular o tal retorno esperado do ativo e o seu risco individual.  Esses cálculos produzem estimativas dos verdadeiros valores do retorno e do risco futuros. Os cálculos em si são do campo da matemática e estatística, ciências formais, entretanto acreditar que os investidores se importam com essas métricas e as reconhecem como direcionadoras de seus investimentos é tema de finanças, ou seja, constituem premissas da teoria de Markowitz.  Aliás, segundo a teoria do portfolio de Markowitz o investidor é avesso a risco, ou seja, exige mais retorno diante de mais risco. Além disso, o investidor é racional e deseja maximizar o retorno para um certo nível de risco ou minimizar o risco para um certo nível de retorno.

O que significa o fato de um ativo A ter retorno esperado de 20,00% ao ano e risco de 10,00% ao ano? Significa que há 99% de chance de o retorno variar entre o mínimo de -5,7% e 45,76%. Não vamos detalhar este cálculo, mas o leitor deve entender que há fórmulas ou softwares que permitem calcular os intervalos de retornos segundo um padrão de chance. No presente caso, admitimos que o retorno do ativo A segue uma tal distribuição normal de probabilidade, um caso particular da teoria de Markowitz, mas que aqui nos é útil do ponto de vista didático e em nada limita a compreensão da teoria.  Se um ativo B tem retorno esperado de 20,00% ao ano e risco de 20,00%, o intervalo de variação do retorno, com 99% de confiança, é [-31,52%; 71,52%]. Note que o ativo B é muito mais volátil, muito mais arriscado do que o ativo A. Se ao investidor racional só restar escolher entre os dois ativos, ele com certeza escolherá o ativo A que tem menor risco e o mesmo retorno de 20% ao ano.

Para Markowitz se os retornos fossem diferentes bem como os riscos individuais, o investidor, tendo que escolher apenas um dos ativos, escolheria aquele ativo que satisfaz o seu apetite de risco. Ou seja, entre o ativo A [20%; 10%] e um ativo C [25%;15%] a escolha não seria tão simples, já que os ativos tem retornos e riscos distintos entre si, devendo o investidor racional escolher aquele que atender ao seu apetite de risco x retorno. Por exemplo, uma pessoa extremamente arrojada, amante do risco, não teria problema em escolher o ativo C como sendo o seu ativo ideal para investimento. O contrário, bem mais comum na prática, um investidor muito avesso ao risco, escolheria o ativo A por ter menor risco anual.

Mas a grande novidade inserida no famoso artigo de Markowitz, lá em 1952, foi a premissa de que o investidor pode e deve trabalhar com carteiras de ativos em vez de ativos individuais. Isto porque ele ensina que a diversificação de risco obtida com a montagem de carteiras tem vantagens sobre as aplicações individuais. A medida de diversificação é dada pela correlação entre os ativos.  A correlação estatística varia entre -1 e + 1. Se a correlação é igual a -1 os ativos são negativamente correlacionados, tendo os seus retornos comportamentos contrários. Ou seja, enquanto um ativo vai muito bem, o outro vai muito mal, em termos de retorno financeiro. Se a correlação é igual a +1, os ativos são perfeitamente correlacionados, não havendo diversificação de risco entre eles.  Se aumenta o retorno de um, também aumento o retorno do outro na mesma proporção. Se a correlação é igual a zero, os ativos tem retornos independentes entre si, nada tendo a ver com o outro, produzindo bastante diversificação de risco.

Markowitz então matematizou aquilo que já era percebido intuitivamente, que a mistura de ativos trás diversificação do risco tal e qual a colocação  dos ovos em cestas diferentes. A novidade, portanto, foi o modelo para quantificar esta diversificação e os percentuais que o investidor deveria investir em cada um dos ativos constantes de uma carteira, de maneira a se ter um retorno esperado máximo para um certo nível de risco ou um risco mínimo para um dado nível de  retorno.

Voltemos ao mundo dos ativos A [20%;10%] e C[25%;15%] sabendo agora que a correlação entre eles é igual a 0,2 (muito baixa) e que o investidor avaliará as possíveis carteiras de dois ativos passíveis de serem formadas. Segundo a teoria do portfolio é possível combinar os ativos A e C para gerar uma carteira que produz retorno esperado maior do que  20% ao ano e risco menor do que os 10% do ativo A. A saber, se combinarmos 73,58% do ativo A com 26,42% do ativo C, teremos uma carteira com retorno esperado de 21,32% ao ano e risco de 9,03%. Olha a magia da diversificação! Do ponto de vista matemático, tudo isso ocorreu porque o risco da carteira tem uma relação não linear com os riscos individuais. Mas, evitando a explicação matemática, podemos dizer que isso ocorreu porque os ativos são não correlacionados (correlação menor que do que +1). Ou seja, o fato de termos ativos que historicamente tiveram comportamentos diferentes num mesmo momento histórico indica que também se comportarão assim no futuro. Se um for muito mal, com retornos negativos, isto poderá ser compensado pelo fato de que o outro terá um retorno positivo.

De posse da teoria de Markowitz poderíamos calcular um conjunto de pontos onde dado um nível de risco, variando do menor valor possível, 9,03%,  até o máximo valor (15% ao ano),  teríamos a chamada fronteira eficiente de Markowitz.  No gráfico a seguir, o ponto P corresponde à carteira de mínima variância (mínimo risco), resultado da combinação de 73,58% no ativo A e 26,42% no ativo C. O ponto W corresponde ao investimento integral no ativo C, com retorno de 25% ao ano e risco de 15%.

Os pontos R, T e U são pontos de investimentos ineficientes que deveriam ser evitados. Assim, em vez de aplicar na carteira U ou T, o investidor aplicaria na carteira eficiente S, pertencente á fronteira eficiente de Markowitz. O ponto S representa a carteira que produz o máximo retorno para o nível de risco X2 ou a carteira que produz o mínimo risco o nível de retorno Y2.

É possível utilizar um software de otimização não linear tão simples quanto o SOLVER do MS Excel para resolver pequenos problemas de se determinar a fronteira eficiente de uma carteira com até uns cinquenta ativos. Isto na prática é suficiente para garantir uma boa diversificação de risco.

Num próximo artigo apresentaremos a evolução trazida por William Sharpe, um pesquisador também laureado com o prêmio Nobel, que sucedeu Markowitz na pesquisa do risco financeiro e que evoluiu a teoria de Markowitz de risco de carteira para risco sistemático. O seu trabalho não desqualificou o de Markowitz, muito pelo contrário, serviu-se dele para aprimorar a teoria do risco em finanças. Admitindo que seja trivial operar com carteiras amplamente diversificadas que, no limite, reduzem os riscos específicos a quase zero, é possível mudar de métrica, abandonando-se o desvio-padrão da carteira (medida do risco total) para o beta, uma nova métrica que mede o nível de risco sistemático.

Estatística sem medo: Inferência!

sexta-feira, março 17th, 2017

Uma das questões que assusta boa parte dos alunos no estudo da Estatística é a parte inferencial. Normalmente, enquanto o aluno está aprendendo estatística descritiva a coisa vai bem. Na Estatística Descritiva, procura-se reunir informações sobre determinado fenômeno, evento, processo ou qualquer outra coisa que seja objeto de estudo e que se procura descrever de forma resumida por alguns poucos números, tabelas ou gráficos.

Quando o aluno sai da média para o desvio-padrão o medo já começa a pipocar! Certo? É preciso ter calma para o medo não paralisar e impedir um avanço natural! Na verdade são conceitos muito simples. Há coisa muito mais difícil a aprender, por exemplo, na nossa língua pátria.

Por falar em média, vamos lá. A média é um número com o qual tentamos representar um conjunto de observações de forma simples. Ela representa uma espécie de centro de gravidade ou de massa, quando se faz uma analogia dos dados com uma peça física, por exemplo, um disco. Então, se fôssemos representar um disco LP (Long Play, esse é antigo) ou um CD (Compact Disc), a média ficaria ali naquele furinho central. O LP costumava ser grande, muito maior do que um compact disc de hoje.

Agora, observe o seguinte, quando tentamos representar uma coleção de observações pela média, perdemos muita informação. Na analogia com o LP, perdemos muito mais do que no CD. Há muitos pontos pretos muito distantes do centro tanto no caso do LP quanto do CD, mas isso é mais severo no caso do LP.  Veja as figuras.

 

Então, se alinhássemos os dois furinhos centrais dos discos, as médias seriam as mesmas. Mas haveria muito mais dispersão nos pontos do LP do que do CD. O que é dispersão? É um conceito que traduz a idéia de variação das diferentes observações em relação ao ponto central.  De novo, há muitos pontos bem mais distantes do centro no caso do LP do que no caso do CD. Costumeiramente utilizam o desvio-padrão ou a variância para medir esta tal dispersão. Nós não vamos aqui apresentar as fórmulas e os cálculos, queremos transmitir apenas o conceito, a noção. Depois você olha num livro de estatística as fórmulas. Resumidamente, a dupla (média, desvio-padrão) passa melhor informação do que somente a média. Concorda?

E a tal Inferência Estatística?

Esta sim mete medo! Né? Vamos tentar desmistificá-la, ajudando-o a entender o seu teorema mais fundamental, o ponto de partida de tudo, o chamado Teorema do Limite Central. Porque se você entender isso você se sentirá mais confortável para enfrentar o resto!

A inferência não tenta descrever nada,  outrossim tenta prever, estimar, alguma coisa, por exemplo a média ou a proporção de determinada variável em uma população. Penso que o exemplo mais conhecido de todos é a estimativa do percentual de votos que um candidato terá numa eleição. Ou seja, a partir de uma amostra obtida por pesquisa com pessoas na rua (ou por telefone), estima-se qual o percentual de votos que o candidato alcançará na eleição.

Outros exemplos são a estimativa de proporções ou taxas de defeitos num determinado processo produtivo e a estimativa da altura média dos soldados de um batalhão. Toma-se uma pequena amostra (porque os objetos podem ser caros e serão destruídos no processo de amostragem) para se falar (inferir) sobre o todo. A partir da análise da proporção de defeitos da amostra e a aplicação de algumas fórmulas chega-se a estimativa da proporção de defeitos em toda a população. No caso da estimativa da altura média, em vez de se realizar um censo com todos os cinco mil soldados de uma unidade, pode-se tomar uma pequena amostra deles para estimar a altura média de todo o conjunto.

As amostras citadas aqui são aleatórias! O que é isso? São amostras onde os elementos são sorteados, são gerados ao acaso e cada um deles tem a mesma chance de ser sorteado. Isso é muito importante. A inferência estatística está assentada no cálculo de probabilidades (assunto da matemática!). Então, é muito importante que as amostras sejam do tipo aleatórias de forma a permitir realizar a inferência medindo nela um certo grau de erro. Mais à frente isso ficará mais claro.

E o tal Teorema do Limite Central? Que bicho é esse?

Esse teorema garante que as médias amostrais tem distribuição normal!

Meu Deus, começou! O aluno já deve estar pensando que passamos para o terreno de Marte! (risos).

Não se preocupe com a fórmula horrorosa da Curva Normal ou Curva de Gauss. Apenas pense de forma prática: alguém que gosta muito de matemática (provavelmente, muito mais do que você que está lendo isso!) calculou tudo para você. É só aproveitar. Ele, sabendo que muitos fenômenos da natureza, poderiam ser modelados/explicados por esta curva normal, deduziu a equação desta curva e deixou tudo prontinho para você.

Veja o jeitão da curva normal

 

Quando você diz que uma determinada variável tem uma distribuição normal ou um comportamento normal, você está dizendo que se você plotar num gráfico os diferentes valores que você coletou (aleatoriamente) desta variável ela terá um jeitão conforme a figura acima. Supondo que você fosse retirando alturas aleatórias de um livro que contém o cadastro detalhado de cada soldado de um batalhão. Há uma grande chance de a maior parte das alturas ficarem na parte central da curva. Mas é possível que apareçam algumas poucas alturas de soldados muito baixos e de soldados muito altos. Eles ficarão nos extremos da tal curva normal. Então, na horizontal do gráfico acima se mede a distância até o centro e as alturas ou áreas entre uma altura e outra a probabilidade de se ter alturas no intervalo. Na figura acima o ponto zero corresponde ao valor central ou altura média. Note que há 68,26% de alturas situadas entre o ponto “-1” e o ponto “1”. O que é isso? Esse 1 e esse -1 representam um desvio-padrão à direita da média e um desvio-padrão à esquerda da média. Vamos supor que a média deste batalhão fosse 1,60 m e o desvio-padrão 0,10 m. Isso quer dizer que 68% das observações (dos soldados) tem altura entre 1,50 e 1,70 m.

Então, note que para caracterizar uma distribuição normal você precisa de dois parâmetros: média e desvio-padrão. De posse desses dois parâmetros você tem uma curva normal perfeitamente definida.

E o tal Teorema do Limite Central? Então, tomando como exemplo a questão das alturas dos soldados do batalhão, este teorema garante que se você tivesse muita paciência e fosse retirando amostras aleatórias de, digamos, 30 soldados e anotando a média de cada amostra, esta coleção de médias amostrais teria uma distribuição normal com parâmetros conhecidos. A média desta nova distribuição seria igual a média da população original (e desconhecida, porque você não fez o censo!) e o desvio-padrão seria menor, dado pela fórmula dp da população/raiz (n), onde n é o tamanho da amostra.

Agora foi para fundir a cuca, né? Calma!

Mas que história é essa, eu quero estimar a altura média de soldados do batalhão e você fica pedindo para eu retirar muitas amostras aleatórias de tamano 30?! Não, só estou colocando esta questão por didatismo. Na prática, conforme você verá ao final, você tomará uma única amostra de 30 soldados para estimar a altura média da população.

Voltemos à questão da tal Distribuição Amostral de Médias. Sim, ela é uma curva normal, com centro na média da população e desvio-padrão muito menor do que o da população. E daí? Eu não tenho nem a média e muito menos o desvio-padrão da população. Certo, mas diz a estatística que podemos utilizar a média da amostra e o desvio-padrão da amostra como estimativa para os parâmetros da população.

Então, vamos supor que a média da amostra foi 1,62 m e que  o desvio-padrão foi de 0,12 m. Ora, com base no Teorema do Limite Central, a média da distribuição amostral de médias (dam) é igual a 1,62 e o desvio-padrão da tal dam é 0,12/raiz(30) que produz o valor 0,02 m ou dois centímetros.

Com base nesses dois parâmetros podemos realizar cálculos de probabilidade pois uma curva normal é propícia a isso. E tudo já se encontra tabelado ou programado em máquinas de calcular ou computadores.

Então, se fôssemos retirando amostras de 30 soldados seguidamente, tudo de forma aleatória, haveria uma chance muito grande, cerca de 68,26% de que as médias dessas amostras ficassem entre 1,60 (média menos um desvio-padrão) e 1,64 m (média mais um desvio-padrão).  Indo para o extremo direito da curva, distante três desvio-padrões do centro, teríamos a altura 1,60 + 3 x 0,02 = 1,66. Isto significa que a chance de encontramos médias de amostras (de trinta soldados) superior a 1,66 é de apenas 0,13%. Olhe no extremo direito da figura correspondente à curva normal.

Bem, finalizando, vamos fazer a nossa estimativa intervalar para a média da altura dos soldados do batalhão com base na tal amostra de média 1,62 e desvio-padrão igual a 0,12. Ora, a dam tem por parâmetros, média igual a 1,62 e dp igual a 0,02. Vamos estimar a nossa altura média no intervalo entre – 3 dp e + 3dp, conforme ilustrado na figura da curva normal. Isto significa que vamos deixar 0,13% de área à direita do ponto extremo direito e o mesmo no extremo esquerdo. Então, dizemos que fazemos uma estimativa com 99,74% de confiança estatística. Ou, com 0,26% de chance de estarmos enganados, ou de significância estatística.

Então, a nossa estimativa intervalar com 99,74% de confiança é:

Altura Média no intervalo [1,56  ,    1,68].

A estatística é humilde! Ela não consegue garantir que a altura média da população é exatamente 1,62 m. Ela apenas informa que há uma grande chance de esta média estar entre 1,56  e 1,68 m.

 

 

Precificando o crédito via CDC nas Cooperativas de Crédito

segunda-feira, fevereiro 20th, 2017

precifica

Vamos considerar que as cooperativas não pagam impostos sobre a receita líquida da intermediação (os bancos pagam cerca de 4 ,5% a título de cofins) e também não pagam os 40% sobre o lucro gerado pela operação de crédito, ou seja irpj/cs.

Os nossos inputs ou argumentos serão:

cap ——————–>Taxa de Captação em termos de taxa mensal;

inad ——————->Taxa de Inadimplência da carteira

s————————>Spread mensal final desejado pela cooperativa

R ———————-> Prestação Mensal do modelo de anuidade simples

P ———————–>Valor do empréstimo

r———————–> Taxa mensal de juros ao cliente

n———————–> Prazo, em meses

 

O primeiro passo é encontrar a prestação de um empréstimo hipotético no valor de mil reais, pela fórmula abaixo:

 

formula

De posse do R calculado, encontramos a taxa de juros ao cliente (r) por meio do modelo básico de anuidade, via HP 12 cv, considerando o P, o R, o n e encontrando a taxa r mensal.

Vamos a um exemplo:

capta = 120% da taxa cdi = 1,23% ao mês (Esse é o custo médio que ela teria se precisasse captar rapidamente junto ao seu Banco Cooperativo. Isso é mais prudente do que considerar o custo de captação da cooperativa junto aos associados).

s (spread mensal desejado pela cooperativa) = 1,024% ao mês. Isto é equivalente  à taxa anual do CDI, 13% ao ano.

inad de 5% para as operações com cdc, com prazo médio de 48 meses.

Prazo de 48 meses.

Resolvendo a equação acima, encontramos a prestação R de 36,08.

Agora, resolvemos o problema básico de anuidade com R=36,08, P=1.000 e n=48

Na HP 12, limpamos os registros, f reg, f fin e em seguida teclamos:

48            n

-36,08    pmt

1.000      P

i —> produz a taxa desejada a ser cobrada do cliente. i = 2,51%

Encontramos a taxa de 2,51% ao mês. Esta taxa, deduzida do custo de  captação e da inadimplência, produzirá um spread líquido de 1,024% ao mês para a cooperativa. Se fosse um banco comercial, sobre o qual incidem os impostos citados na introdução, esta taxa teria que ser 3,25% ao mês para poder obter o mesmo spread líquido. Agora, se a cooperativa é muito líquida e resolve adotar como custo de oportunidade 100% da taxa CDI, a taxa ao cliente para a operação de 48 meses poderia ser 2,29% ao mês.

Note também que a inadimplência colocada é uma inadimplência média da carteira e a taxa precificada deve ser utilizada para todo e qualquer cliente.

Se a taxa de inadimplência (e tudo mais constante) fosse de 10%, a taxa a ser cobrada do cliente seria de 2,79% ao mês. Mas se a taxa de inadimplência fosse de apenas 1% (como numa carteira de consignado), a taxa ao cliente seria de 2,29% ao mês. E, se simultaneamente tivéssemos taxa de inadimplência de 1% e custo de oportunidade igual a 100% da taxa CDI, a taxa ao cliente seria 2,08% ao mês.

Até aqui demos exemplos em que a cooperativa almeja um spread líquido de 1% ao mês ou mais de 12% ao ano. A cooperativa poderia ser muito mais competitiva se pudesse diminuir o spread esperado, como no exemplo seguinte.

Se pudéssemos trabalhar com uma  taxa de inadimplência de 1%, custo de captação de 100% da taxa CDI e meta de spread de 0,5% ao mês (6,15% ao ano), a cooperativa poderia operar com uma taxa de 1,58% ao mês. Esta cooperativa seria extremamente competitiva.

Neste modelo há um viés que necessita de atenção. Se aumentarmos o prazo de 48 para 60 meses, mantendo o resto constante, a taxa ao cliente reduz. Isto porque o método espera receber mais juros líquidos pós inadimplência. Uma forma de contornar o viés é estipular uma taxa de inadimplência esperada maior para prazos maiores. No presente caso, se a inad para 48 meses foi de 5%, há que se esperar inad maior para o prazo de 60 meses. A forma mais imediata é linearizar a inad em função do prazo ou estimar as inadimplências em função dos prazos das operações com base em dados históricos.

 

 

 

O meu novo brinquedinho!

terça-feira, fevereiro 7th, 2017

Prezados leitores,

estou navegando pelos mares da otimização novamente! Digo novamente, porque em 1988 trabalhei pela primeira vez com este tema na UFRJ/COPPE e daí nasceu uma paixão da qual ainda não me livrei. Devo publicar aqui no blog uma série de artigos sobre algoritmos heurísticos aplicados a finanças, a minha atual área de pesquisa. Os algoritmos heurísticos servem-se de muita criatividade para resolverem problemas complexos que não podem ser revolvidos (em tempo hábil) computacionalmente. Se as soluções dos algoritmos heurísticos não são exatas, é preciso estabelecer tetos para os erros produzidos pela aplicação deles. O caso modal de problema de otimização, no campo de finanças, resolvido por heurísticas, é o problema de Otimização de Portifólio. Este problema foi introduzido originalmente por Markowitz, em 1950, mas numa forma mais simples e mais teórica. Quando se adiciona a este problema de Markowitz restrições da prática (número limitado de ativos, upper e lower bounds sobre os ativos e custos fixos e variáveis de aquisição de ativos) o problema fica muito complexo e não pode ser resolvido pelo método quadrático publicado por Markowitz naquela época. Então, recorre-se a uma série de heurísticas. As heurísticas que tem “bombado” ultimamente são aquelas ditas evolucionárias, porque imitam o comportamento de bactérias no corpo humano, formigas no formigueiro e dos genes ao longo da evolução das espécies.

Para entender um pouco sobre este assunto, o leitor leigo pode acessar algumas aulas do Professor Evaristo Chalbaud Biscaia Jr, da UFRJ/COPPE, disponíveis no link a seguir:

http://www2.peq.coppe.ufrj.br/Pessoal/Professores/Evaristo

 

 

Abordagem Probabilística x Abordagem Determinística de um Problema/Fenômeno

segunda-feira, outubro 17th, 2016

Imagine que aquela ação que você comprou há 6 meses, apostando que iria valorizar tenha perdido 20% (vinte por cento) de seu valor inicial. Desesperado você liga para um estatístico (ou um analista financeiro que usa abordagens estatísticas ou probabilísticas para avaliar ações) e ele te responde:

 prob2

Não há nada de errado com a ação. Ela segue um ritmo previsto, ou seja, o seu retorno semestral segue uma distribuição normal com média 15% (quinze por cento) e desvio-padrão de 30%. Numa distribuição de retornos do gênero há cerca de 16% de chance de obter retornos semestrais negativos e inferiores a – 20% (perda de 20%). Ou, ainda, há 5% de chance de o retorno ser pior do que – 42%.

 

 Não gostando das explicações do estatístico você liga para um economista tradicional que estuda os fundamentos da empresa (ou diz que estuda!) e ele explica de uma outra forma:

 newton O problema é que a empresa objeto da ação em tela perdeu Market share nas suas exportações em função da variação cambial que deixou o real sobrevalorizado. O governo já estuda medidas que voltarão a incentivar/facilitar as exportações e o mercado reprecificará o valor da ação daqui a dois meses. A partir daí a ação deverá crescer cerca de 30%.

 

 

Quem é mais convincente? Que explicação agrada mais? Certamente a do economista fundamentalista. Certo? É que o ser humano não lida bem com o probabilístico, o aleatório. A primeira argumentação é deste campo, uma explicação humilde, acanhada que não tenta arregimentar os porquês da queda de preço, informando apenas que está na natureza do  preço (que tem comportamento aleatório) variar, ora para cima, ora para baixo. Ao longo de muitos semestres o estatístico informa que se espera um retorno médio  próximo a 15%, mas nada é garantido, certo ou determinado. Este não é um fenômeno determinístico e eis que o ser humano que quer dominar o mundo, visível, invisível, micro e macro cósmico não aceita com facilidade ficar a mercê do aleatório.

O economista e sua informação estão no campo das abordagens determinísticas! É como Newton, no século XVII, escolheu para dar suas explicações sobre o movimento dos corpos, inclusive dos planetas.  Newton,  apresentou uma fórmula que, de maneira certa, determinística, demonstrava a força que o sol exercia sobre um planeta e em função disso, com precisão incrível, mesmo para aquela época, determinava a trajetória elíptica que o planeta descreveria em torno do sol.  Bastava conhecer as massas dos planetas envolvidos, as distancias entre eles, que a fórmula de Newton resolvia tudo.

Newton fez um enorme sucesso, assim como todos os cientistas que desenvolveram as suas teorias determinísticas (quase sempre no campo da física, matemática e lógica,) no período renascentista ou iluminista que sucedeu a outro período conhecido como idade média. Ao contrário, os probabilistas não lograram o mesmo êxito tendo muita dificuldade de emplacar suas teorias, consideradas acanhadas demais quando comparadas com aquelas deterministas, levando muito tempo para utilizá-las no estudo de fenômenos, situação que aconteceu no final do século XIX, início do século XX.

O problema é que Newton não desenvolveu fórmulas para explicar com precisão os fenômenos sociais, do campo da economia, finanças e contabilidade, por exemplo. Nestes campos, onde as ações do ser humano tem muita influencia, há indicação de que as teorias probabilísticas trazem melhores resultados. O Economista em tela, tem boas histórias, mas não há certeza sobre o efeito delas sobre o preço da ação.

A famosa Lei dos Grandes Números

segunda-feira, setembro 12th, 2016

dado

Você já ouviu falar nesta lei da matemática das probabilidades?

É cada vez mais utilizada nos diversos campos da pesquisa, notadamente na pesquisa médica! Leia uma bula de remédio e você verá uma coleção de dados estatísticos sobre experimentos com as drogas que compõem o remédio.

A viagem de uma nave espacial, a previsão do tempo, por exemplo, só são possíveis graças a teoria de probabilidades que assenta-se nesta tal Lei dos Grandes Números!

Em  vez  de falarmos sobre teoremas e fórmulas matemáticas vamos usar o computador e o aplicativo MS – Excel, ferramentas muito populares, para tentar entender a tal lei.

Diz a teoria das probabilidades que se eu jogar uma moeda há 50% de chance de dar cara e 50% chance de dar coroa! Vamos fazer alguns experimentos com a ajuda do computador, mirando no número de caras sorteadas. Eu não tenho paciência para ficar jogando moedas ad eternum. (risos).

A minha primeira ideia é abrir uma planilha do Excel e utilizar a ferramenta geração de números aleatórios para simular a jogada da moeda. No Excel 10, vai-se ao menu Dados e, dentro dele, escolhe-se o item Análise de Dados. Dentro da janela Análise de Dados, escolhe-se Geração de número aleatório! Veja a janela da ferramenta em questão com os parâmetros preenchidos:

geracao-aleatoria

Veja que no campo Número de Variáveis atribuímos o valor 30. Isto significa dizer que teremos 30 colunas de variáveis aleatórias geradas. O Número de números aleatórios foi preenchido com o número 10, para indicar que cada geração terá dez sorteios da moeda. Portanto, cada coluna gerada na planilha tem 10 linhas, indicando que em cada uma das trinta, a moeda foi jogada dez vezes seguidas.

O valor p foi preenchido com 0,5 para indicar que a chance (probabilidade) de dar cara é de 50% em cada lançamento da moeda equilibrada. E o Número de tentativas é 1, para indicar que o evento é o sorteio de uma única moeda.

O resultado percentual do número de caras em cada coluna variou de 10% a 90% de caras! E você pergunta? Mas a probabilidade de dar caras não é de 50%. Resposta: sim! Mas isso não significa dizer que em cada conjunto de dez sorteios da moeda você terá exatamente 5 caras.

Tive uma nova ideia, vou aumentar o número de sorteios da moeda em cada coluna analisada. Antes tínhamos 10 sorteios em cada coluna, agora vou utilizar a mesma ferramenta para gerar 100 sorteios. Então, o computador gerará 30 colunas, cada uma delas com a simulação de 100 sorteios da moeda equilibrada. Examinando a frequência de caras em cada uma das trinta colunas, este número variou de 39 a 57, ou seja, indicando que haveria de 39 a 57% de caras nos sorteios! Na média o percentual de caras foi de 50,50% (média dos percentuais de caras nas trinta colunas). No caso anterior, quando tínhamos apenas 10 sorteios por coluna, o percentual médio foi de 46%.

Continuando, resolvi gerar outras 30 colunas mas cada coluna agora tem 1.000 sorteios da moeda equilibrada. E noto que o percentual de caras variou menos nas trinta colunas observadas. O percentual médio, considerando, as trinta colunas, foi de 49,77%.

Gerei novas trinta colunas com dez mil sorteios da moeda equilibrada cada. O percentual médio de caras foi para 50,11%. Conclusão, na medida em que se aumenta o número de sorteios, o percentual de cara na amostra vai se aproximando cada vez mais dos 50%, o número teórico que retrata a tal  probabilidade de ocorrer cara.

Então, a probabilidade teórica se realiza na prática quando o número de experimentos tende a infinito, ou seja, quando se repete muitas vezes o experimento.

Então, é preciso ter cuidado com a teoria de probabilidades! Não se pode querer precisão quando se lida com poucas observações. Esta é a lógica da Lei dos Grandes Números.

Mensurando a Concentração de Risco de Crédito na Carteira

segunda-feira, setembro 5th, 2016

ovos na cesta

Você já está careca de saber que a concentração do risco de crédito em poucos tomadores ou em poucos setores econômicos é uma ameaça à segurança da Instituição Financeira. De fato, não precisa ter habilidade na matemática das probabilidades ou na estatística para perceber isso.

Mas como este que vos fala tem verdadeira paixão por matemática, fizemos um estudo do efeito da concentração setorial para o risco de crédito da carteira, utilizando as idéias de Markowitz (já citadas em outra publicação deste blog) e a utilização de algumas distribuições de probabilidades para modelar o comportamento do tomador e dos setores econômicos. Se você não curte matemática, não tem problema, vou tentar ser didático e sublimar os detalhes dos cálculos, mas deixando claro os conceitos e os efeitos finais. Os aficionados por matemática podem me escrever que eu terei prazer em detalhar a metodologia aqui empregada!

Primeira coisa importante é que, por simplificação de cálculo, consideramos que todo tomador tenha um percentual de perda esperado de 4% (quatro por cento) e que esta perda seja uma variável aleatória seguindo a distribuição de Bernouille. Isto significa dizer que não é certo que vá se perder 4% com cada um dos tomadores e nem mesmo em toda a carteira. Significa que este valor de percentual de perda flutuará em torno dos 4%. A carteira como um todo seguirá uma distribuição Binomial, com média também de 4% e desvio-padrão bem menor do que o do caso individual.

Porque partimos de 4%? As instituições financeiras não tem o hábito de começar o rating dos clientes e operações na letra A, que significa taxa de perda esperada de 0,5% ? Sim, mas é apenas um MAU HÁBITO. Há muitas evidências de que isto é um erro, os clientes típicos das instituições financeiras deveriam ser classificados entre a letra C e D, para atender plenamente as duas principais normas de risco de crédito, a Resolução 2.682/99 e a Resolução 3.721/09. Atualmente, a taxa média de inadimplência das instituições financeiras situa-se em torno de 4%. Na verdade um pouco mais, mas vamos descontar o efeito momentâneo da crise conjuntural porque passa o país e deixar a perda esperada nos quatro por cento.

A medida de concentração para nós é o fato de os clientes/empresas estarem no mesmo setor econômico! Por exemplo, os plantadores de cana, as usinas de álcool e açúcar, os empregados destes dois subsetores estão todos no mesmo barco! Nós vamos utilizar uma correlação de 0,85 para designar clientes que estão num mesmo setor econômico! O leitor pergunta: e porque não considerar uma correlação cheia, igual a 1. Ora, porque vamos reservar um espaço para alguma diversidade. Na prática, talvez não existam duas entidades econômicas completamente correlacionadas! Então, quando dois clientes estiverem num mesmo setor vamos utilizar correlação igual a 0,85. E a diversificação será modelada pela correlação igual a 0,15 e não zero. Aqui, a explicação é semelhante! Não acreditamos que existam dois clientes completamente diferentes um do outro, do ponto de vista da afetação da inadimplência/perda. É como se deixássemos 15% de chance de ambos serem igualmente afetados pelas variáveis macroeconômicas. Ou seja, ninguém escapa de uma crise conjuntural como agora! Mesmo estando em setores distintos.

Saiba que manter um cliente com taxa de perda esperada dada pela distribuição de Bernouille, com média de 4%, significa também admitir que ele pode ter uma perda inesperada de 45,59%. Ops! Ligando uma coisa com outra, isto significa dizer que um banco ou cooperativa de cliente único precisaria de capital regulamentar deste nível para não ir à bancarrota! Sim. É isto mesmo! Ora, mas a Regra de Basiléia não exige algo em torno de 11%? Sim, mas é porque ela, de alguma maneira não explicitada pelo BIS ou pelo nosso BACEN, considera a diversificação de riscos! E é exatamente isto o que vamos mostrar na tabela abaixo, resultado da aplicação do nosso modelo binomial!

Então, na tabela abaixo mostramos a evolução da perda inesperada (aquela que deve ser comparada com a taxa exigida de capital regulamentar, hoje em torno de 11%):

carteira-diversificada

Se você acrescenta mais um único cliente de outro setor econômico (diferente daquele primeiro ou único), a perda inesperada cai para 24,44%%. Entretanto, se você acrescenta um outro cliente mas do mesmo setor econômico, a perda inesperada (ou taxa) cai menos, ficando em 31,00%.

Note que se você conseguir colocar dez clientes, cada um de um setor econômico distinto, você diversifica bastante, a perda inesperada fica reduzida a 6,99%. Se os clientes estiverem num mesmo setor econômico, a perda inesperada cai para 13,41%, implicando em baixa diversificação. Note também que no segundo caso a perda inesperada, calculada gerencialmente, por um método estatístico, fica acima dos  11% preconizados pela Regra de Basiléia!

Na medida que você vai aumentando a quantidade de tomadores e a diversidade de setores você vai aproveitando ao máximo os benefícios da diversificação. Neste exemplo, simplificamos a questão, colocando cada cliente como se fosse um setor econômico, mas já se pode ver que a concentração setorial exerce efeito razoável sobre o risco de crédito final.

A conclusão a que chegamos é a seguinte, tendo o Bacen tratado da concentração de risco apenas no plano individual, limitando o percentual máximo a ser emprestado a um único cliente (25% do Patrimônio de Referência para Bancos e 15% para Cooperativas) ele pode ter esquecido de uma fonte relevante de risco,  a CONCENTRAÇÃO EM SETORES ECONÔMICOS!

Alguém poderia dizer, mas isto é inócuo quando se considera os grandes bancos de varejo que são diversificados por natureza! Sim, é verdade. Mas só para os grandes bancos! Para os bancos pequenos e cooperativas que costumam concentrar boa parte da carteira de crédito nos seus 20 maiores tomadores e todos de um mesmo setor econômico, uma abordagem de concentração setorial seria relevante.

Destaca-se o fato de que a adoção de um mecanismo de solidariedade plena entre cooperativas de um mesmo sistema cooperativo de crédito também contornaria a questão! Claro, porque nesta condição o sistema se equipararia a um grande banco de varejo, também diversificado! Mas para adoção de mecanismo de solidariedade plena, já tocamos nesta questão em outros artigos aqui do blog, é preciso padronizar processos, sobretudo os de gestão de riscos, e informatizar para que todos se sintam seguros com a solidariedade!

A quantificacão do Risco Financeiro!

sexta-feira, agosto 12th, 2016

curva normal

Muito provavelmente você ou alguém de seu grupo de relacionamento menciona diariamente a palavra RISCO. Um substantivo masculino que o dicionário online explica:

Significado de Risco
s.m.
Perigo; probabilidade ou possibilidade de perigo: estar em risco.

Ninguém tem dúvida quando se diz que comer muita gordura aumenta o risco de um ataque cardíaco, não é mesmo? O ataque cardíaco não é certo após comer gorduras,  mas estudos estatísticos demonstram que as pessoas que comem mais gordura tem maior propensão ao infarto. Os pesquisadores médicos lançam mão de estatísticas, históricos de óbitos, provindas ou não de experimentos controlados e chegam a esta conclusão. A conclusão se dá em termos de chance ou probabilidade e não de certeza! Exemplo: Nos últimos 5 anos, mil pessoas vinham sendo estudadas no sul do país, e dentre estas houve 120 óbitos por infarto do miocárdio, sendo que dentre as que foram a óbito, 100 abusavam de gorduras. Fica evidente que há maior chance de óbito dentre os que comem gordura, neste exemplo hipotético.

Em finanças a coisa é muito parecida. Lança-se mão de cálculos estatísticos para se atribuir chances/probabilidades de determinadas eventos financeiros (retornos ou prejuízos) acontecerem. Isto é feito a partir de série histórica de retorno financeiro do negócio que se estuda.  Regra geral é  possível transformar dados históricos em funções matemáticas (as chamadas distribuições de probabilidades, um palavrão para quem não é do ramo, certo? rs) e a partir daí realizar os cálculos. Vários pesquisadores em matemática, estatística e física estudaram vários fenômenos (naturais e sociais) e criaram funções genéricas que podem ser adaptadas para o objeto do nosso estudo.

Veja por exemplo a ilustração que abre este post. O gráfico representa uma das mais famosas funções de probabilidade, a chamada Curva Normal.  Entenda que as áreas hachuradas sob o gráfico representam as probabilidades ou chances de acontecimento. Então, no caso da curva normal, quanto mais distante do centro, menor é a chance do acontecimento do fenômeno em estudo. Vamos imaginar que o gráfico postado trate de retornos históricos de uma determinada ação negociada em bolsa.  Vamos supor que o retorno médio anual da ação seja de 30% ao ano, avaliado nos últimos 30 anos. E que o desvio-padrão, representado pela letra sigma na figura, seja de 20%.

Na figura fica claro que há 68,2% de chance de o retorno anual situar-se à distância de um desvio-padrão do centro, ou seja, o retorno ficaria entre 10% e 50% ao ano. Com base em tabelas, calculadoras e planilhas pode-se calcular as chances de outros retornos, por exemplo, a chance de o retorno ser maior do que zero. No caso, só por curiosidade, a probabilidade de o retorno ser maior do que zero é de 93,32%. Uma outra informação, o pior retorno para a ação avaliado com 95% de confiança (5% de chance de estarmos equivocados) é de -2,90%. O exemplo é fictício e mostra um ativo fantástico!

Não se preocupe muito com os cálculos, com os detalhes técnicos relacionados a estatística. Note apenas a linguagem da probabilidade, a linguagem universal para se quantificar o risco. No final das contas a informação fundamental em termos de gestão de riscos, no exemplo acima, é a de que o pior retorno com 95% de confiança é de -2,90%. Uma aposta em que se espera ganhar 30% ao ano e, num cenário de crise (com 5% de chance de acontecer) perder 2,90%, é um investimento de baixíssimo risco, muito pouco provável de existir na vida real.

Mais à frente iremos publicar mais posts sobre cálculo de risco. Ressalto que existem várias distribuições de probabilidades tabeladas nos compêndios da literatura estatística e que alguma delas, não só a normal, pode se ajustar melhor ao seu objeto de estudo!

Afastando o Mal de Alzheimer

sexta-feira, agosto 12th, 2016

mal de alz