Metais a céu abertoArtigo
15 março 2017

Explicação do Pseudoflow

Julian Poniewierski (anteriormente Deswik) compara a otimização de cavas do Deswik Pseudoflow com a otimização de cavas do Whittle LG.

1. Introdução

O objetivo deste documento é trazer informações ao usuário sobre o Deswik Pseudoflow, comparando-o com o processo de otimização de cavas mais aceito do setor de mineração, que usa o software Whittle com base no algoritmo Lerchs-Grossman (LG).


Em resumo, ambos são variações de algoritmos de fluxo de rede que alcançam o mesmo resultado, sendo o algoritmo de pseudoflow um algoritmo computacionalmente mais eficiente desenvolvido cerca de 35 anos após o algoritmo original de Lerchs-Grossman (1965).


Foram necessários 20 anos a partir da formulação do algoritmo LG para que ele fosse incorporado ao primeiro software disponível comercialmente (Whittle Three-D), e mais 10 anos para este se tornar a abordagem mais usada para a otimização de cavas abertas.


Nos últimos 30 anos, Whittle e o algoritmo LG tornaram-se sinônimos de otimização de cavas a céu aberto e agora sofrem por terem se tornado um termo genérico para o processo de otimização de cavas – semelhante ao uso genérico da marca Hoover para aspiradores de pó no Reino Unido (pois no Reino Unido as pessoas aspiram seus tapetes).


Já se passaram 15 anos desde a formulação do algoritmo pseudoflow, e há pelo menos três implementações comerciais disponíveis, incluindo a implementação da Deswik.


Assim como a "aspiração" não precisa ser feita com um aspirador de pó Hoover — na verdade, o vácuo ciclônico da Dyson é reconhecido como muito mais eficiente na aspiração — o algoritmo pseudoflow agora deve substituir o algoritmo LG no "refinamento" da otimização de sua cava.


Vale destacar que a implementação da Deswik não é limitada (e nem ajudada) pela extensa configuração de

tabelas de parâmetros e entradas fornecidas no software Whittle para cálculos de custo e receita. Para a

implementação do pseudoflow da Deswik, o usuário deve calcular as receitas e os custos para cada bloco no modelo de blocos utilizado e realizar sua própria regularização de blocos dentro do ambiente Deswik.CAD. O usuário estará, então, no controle total de como os custos e receitas são calculados e alocados. Isso, no entanto, exige que o usuário esteja totalmente familiarizado com seu modelo de blocos, estruturas de custo e parâmetros de receita (o que acreditamos ser algo positivo). Isso permite que a configuração seja tão flexível quanto exigido pelo usuário (não limitado pelas caixas de diálogo de configuração de templates).

2. Histórico da otimização de cavas


2.1 Processo manual


Antes do desenvolvimento de métodos computadorizados de otimização e projeto de cavas, os engenheiros de mineração usavam métodos de interpretação manual com avaliação em seções transversais desenhadas manualmente (em papel, papel vegetal ou filme) e, em seguida, o desenho manual da cava.


No método manual, uma otimização simples da profundidade econômica da cava geralmente era realizada com uma calculadora de mão (ou régua de cálculo) para corpos minerais de formato regular usando áreas transversais incrementais, para minério e estéril, e uma inclinação geral da cava. A relação estéril/minério incremental (a relação entre a tonelagem de estéril que deve ser transportada para acessar o próximo incremento de massa de minério que será acessado) em cada seção transversal era comparada com a relação estéril/minério de equilíbrio para o teor de minério estimado e insumos de receita e custo apropriados.


A concha final da cava era então produzida desenhando-se conchas de cava cada vez maiores na seção transversal, de forma que

o último incremento tivesse uma relação máxima de estéril/minério para o projeto.


Essa era uma abordagem que exigia trabalho manual muito intenso e somente conseguia uma aproximação da cava ótima. O projeto precisava ser feito em um grande número de seções transversais e ainda era impreciso, porque tratava o problema em apenas duas dimensões. Em casos de alta variação de teor, o problema tornava-se extremamente complexo e dependia muito da "intuição" de um projetista experiente pelo uso da tentativa e erro.



2.2 Cone Flutuante


Pana (1965) apresentou um algoritmo chamado Cone Móvel (ou Flutuante). O método foi desenvolvido na Kennecott Copper Corporation durante o início da década de 1960 (McCarthy, 1993), sendo a primeira tentativa computadorizada de otimização de cavas, exigindo um modelo de blocos computadorizado tridimensional do depósito mineral.


Os limites finais projetados da cava são desenvolvidos usando uma técnica de “cone” móvel (ou melhor, o tronco de um cone invertido — ou seja, um cone que teve sua extremidade “pontiaguda” cortada para representar uma área mínima de mineração). O cone é deslocado no espaço do modelo de blocos para gerar uma série de incrementos de remoção em forma de tronco interligados.


No entanto, a deficiência dessa abordagem é que ela cria cones sobrepostos e é incapaz de examinar todas as combinações de blocos adjacentes. Por esse motivo, o algoritmo não consegue fornecer resultados realistas de forma consistente.


A Mintec/MineSight (uma empresa sediada nos EUA e fornecedora da solução inicial para a Kennecott) foi uma das primeiras a implementar o algoritmo de cone flutuante (e ainda pode oferecê-lo em seu pacote de soluções).



2.3 Lerchs-Grossman


Foi também em 1965 que Lerchs e Grossmann publicaram um artigo que apresentou duas abordagens de modelagem para resolver o problema de otimização de cava a céu aberto. O algoritmo de Lerchs-Grossman (LG) está bem documentado na literatura técnica (Lerchs e Grossman, 1965; Zhao e Kim 1992; Seymour, 1995; Hustrulid e Kuchta 2006).


O método LG foi baseado em uma técnica matemática que somente pode ser utilizada na prática quando um programa de otimização chamado Whittle Three-D foi desenvolvido por Jeff Whittle, da Whittle Programming Pty Ltd, em meados da década de 1980.


Dois métodos para a solução da otimização de cavas a céu aberto foram detalhados por Lerchs e Grossmann, sendo um baseado em um algoritmo da Teoria dos Grafos,

que é uma abordagem heurística, e um algoritmo de Programação Dinâmica, que é uma aplicação de uma técnica de pesquisa operacional. Ambos os métodos forneciam um limite ótimo de cava para um fluxo de caixa não descontado – com base em um modelo de blocos econômico de um corpo de minério e seu estéril circundante, e determinavam quais blocos deveriam ser minerados para se obter o máximo valor em dólares da cava.


Os métodos de LG levavam em consideração dois tipos de informação:

  • (i) As inclinações necessárias para a mineração. Para cada bloco no modelo, o método LG requer detalhes sobre quais outros blocos devem ser removidos para expor este bloco. Essas informações são armazenadas como "arcos" entre os blocos ("nós").
  • (ii) O valor em dólares de cada bloco após ter sido descoberto. No caso de um bloco de estéril, esse valor será negativo e será o custo de detonação, escavação e transporte. No caso de um bloco de minério, o custo de remoção será compensado pelo valor do minério recuperado, menos qualquer processamento, vendas e outros custos associados. Qualquer bloco que possa, durante a mineração, ser separado em estéril e minério recebe um valor que reflete isso.


Dados os valores de bloco (positivos e negativos) e os arcos da estrutura, o método LG constrói progressivamente uma lista de blocos relacionados na forma dos ramos de uma árvore (denominados "grafos" na matemática). As ramificações são sinalizadas como "fortes" se o total de seus valores de bloco for positivo. Vale a pena minerar essas ramificações se forem descobertas. Outras ramificações com valores totais negativos são sinalizadas como "fracas".


O método LG então procura arcos de estrutura, que indicam que alguma parte de uma ramificação forte fica abaixo de uma ramificação fraca. Quando tal caso é encontrado, as duas ramificações são reestruturadas de modo a eliminar o conflito. Isso pode envolver a combinação das duas ramificações em uma (que pode ser forte ou fraca) ou quebrar um galho de uma ramificação e adicioná-lo à outra ramificação.


A verificação continua até que não haja mais nenhum arco de estrutura que vá de um ramo forte para um ramo fraco. Neste ponto, os blocos em todos os ramos fortes juntos constituem e definem a cava ótima. Os blocos nos ramos fracos são aqueles que serão deixados para trás quando a mineração for concluída.


Com efeito, o que o algoritmo LG fez foi encontrar o fechamento máximo de um grafo dirigido ponderado; nesse caso, os vértices representam os blocos no modelo, os pesos representam o lucro líquido do bloco e os arcos representam as restrições (geralmente de inclinação) para a mineração. Assim, o algoritmo LG fornece uma solução matematicamente ótima para o problema de maximização do valor da cava (importante, observe que isso é para um valor de fluxo de caixa sem desconto).


Deve-se notar que esta é uma solução matemática. Com exceção das informações fornecidas pelos arcos, o algoritmo LG não “sabe” nada sobre as posições dos blocos – tampouco sobre mineração. O algoritmo LG funciona apenas com uma lista de vértices e uma lista de arcos. Se eles são dispostos em uma, duas ou três dimensões e quantos arcos por bloco são usados é irrelevante para a lógica do método, que é puramente matemática.


Observe também que transcorreram aproximadamente 20 anos entre a publicação do método LG (1965, que também foi o ano em que o método de cone flutuante foi computadorizado) e a primeira adoção comercial do método LG (Whittle’s Three-D).


O algoritmo básico de LG tem sido usado há mais de 30 anos em muitos estudos de viabilidade e para muitas minas em produção.



2.4 Soluções de fluxo de rede


“Em seu artigo de 1965, Lerchs e Grossmann indicaram que o problema do limite final poderia ser expresso como um problema de fluxo máximo de fechamento de rede, mas recomendaram sua abordagem direta, possivelmente devido a restrições de memória computacional na época. O algoritmo LG era, portanto, um método que resolvia um caso específico de um problema de fluxo em rede” (Deutsch, et al, 2015).


Em 1976, Picard “forneceu uma prova matemática de que um problema de fluxo de rede de “fechamento máximo” (como é o problema de otimização de corte aberto) era redutível a um problema de fluxo em rede de “corte mínimo”, portanto solucionável por qualquer algoritmo de fluxo máximo eficiente. Como consequência, algoritmos sofisticados de fluxo de rede poderiam, portanto, ser usados no lugar do algoritmo LG, e eles podem calcular resultados idênticos em uma fração do tempo.” (Deutsch, et al, 2015).


Um dos primeiros algoritmos eficientes de fluxos máximos usados na resolução do problema de otimização de cavas a céu aberto foi o algoritmo “push-relabel” (Goldberg e Tarjan, 1988; King et al., 1992; Goldfarb e Chen, 1997).


O estudo de Hochbaum e Chen (2000) mostrou que o algoritmo push-relabel superou o algoritmo LG em quase todos os casos. Quando o número de vértices é grande, maior que um milhão, os algoritmos de fluxo de rede executam ordens de magnitude mais rapidamente e calculam precisamente os mesmos resultados” (Deutsch, et al, 2015).


Vários autores implementaram o algoritmo push-relabel, e várias heurísticas e técnicas foram desenvolvidas para maximizar seu desempenho. Esse foi o algoritmo que a MineMax implementou em seu primeiro produto de software otimizador de cavas.


O desenvolvimento de algoritmos de fluxo de rede mais eficientes seguiu em frente. O algoritmo mais eficiente atualmente disponível e geralmente aceito é utilizado nos vários algoritmos pseudoflow desenvolvidos pela professora Dorit Hochbaum e seus colegas da Universidade da Califórnia, Berkeley (Hochbaum, 2002, 2001; Hochbaum e Chen, 2000).


Os métodos de pseudoflow dão nova vida à otimização de cavas por LG. A implementação do método de "highest label" do algoritmo pseudoflow, em particular, é consistentemente mais rápida do que os métodos genéricos de LG e também geralmente mais rápida do que a implementação do método alternativo de "lowest label" do algoritmo pseudoflow. O aumento da velocidade pode ser de duas a 50 vezes mais rápido do que os métodos de LG e, teoricamente, muito mais rápido para problemas maiores (Muir, 2005).

3. Comparações de desempenho dos algoritmos

Muir (2005) forneceu a análise mais abrangente do desempenho do algoritmo pseudoflow e um exemplo prático dos resultados idênticos obtidos em comparação com o algoritmo LG na resolução de uma otimização de cava. Essas análises e resultados foram apresentados à indústria de mineração na publicação da série AusIMM Spectrum de 2005: Orebody Modeling and Strategic Mine Planning. Os principais resultados da análise de Muir são reproduzidos aqui.


Vale lembrar que o código escrito por Muir (2005) é o mecanismo base de cálculo integrado ao Deswik Pseudoflow.


Como validação da implementação correta desse código, os resultados da implementação do Deswik foram comparados com quatro conjuntos de dados de teste disponíveis publicamente do Minelib1 (Espinoza et al, 2012). Os conjuntos de dados específicos usados para verificar os resultados foram utilizados por Marvin, McLaughlin, KD e P4HD. Os resultados do Pseudoflow foram idênticos aos resultados publicados no Minelib.


O Quadro 1 (de Muir, 2005) mostra os tempos de execução relativos para diversas variantes dos algoritmos LG e pseudoflow. Os resultados mostram que a implementação da "fila de prioridade de highest level do pseudoflow" (HLPQ) levou pouco menos de 2% do tempo utilizado pelo algoritmo LG padrão para resolver um problema de otimização de cava com 38 bancadas.


O Quadro 2 (de Muir, 2005) mostra que o número de blocos e o valor de lucro para a solução da HLPQ foram idênticos à solução do LG para o mesmo problema de otimização de cava com 38 bancadas.


Os tempos de solução relativos mostrados no Quadro 1 são representados graficamente na Figura 1.


Além do artigo de Muir, há alguns outros exemplos conhecidos de comparações publicadas entre o algoritmo LG e soluções de rede de fluxo para o problema de otimização de cavas.


Jiang (2015) afirmou que os limites finais de cava fornecidos por uma implementação do algoritmo pseudoflow em comparação com a implementação do Whittle LG sempre foram materialmente os mesmos, com eventuais pequenas diferenças observadas sempre devidas à forma como as várias implementações calculam as restrições de ângulo do talude.


O algoritmo push-relabel implementado pelo MineMax foi comparado com o algoritmo LG da SRK (Kentwell, 2002) e verificou-se que produziu “os mesmos resultados para os cálculos ótimos reais de cavas” (dentro de menos de 0,01% — com as diferenças parecendo ser devidas à granulometria e inclinações do bloco).

Table Graphic
Quadro 1: Tempos de otimização (segundos) para vários níveis de cava para matriz de lucro de 220 x 119 x 38
Table Graphic
Quadro 2 – Estatísticas para o nível 38 para matriz de lucro de 220 x 119 x 38
PseudoflowExplained_Figure1
Figura 1 – Tempos de solução de quatro algoritmos de otimização de cavas para problemas de cavas com diferentes números de bancadas

4. Questões de modelagem a serem notadas

Tendo mostrado que foi comprovado que o algoritmo pseudoflow fornecerá resultados idênticos ao algoritmo LG, é apropriado também salientar que nenhuma solução algorítmica fornecerá a solução de otimização exata. Há um grande número de aproximações incorporadas à solução algorítmica para o problema de otimização de cava, bem como vários erros comuns e suposições incertas usadas no processo.


Os enormes esforços dedicados ao desenvolvimento de algoritmos de otimização sofisticados geralmente não são acompanhados por uma atenção similar dedicada à melhoria da precisão e confiabilidade dos dados usados no exercício de modelagem, bem como ao uso correto dos resultados da modelagem.


Algumas das numerosas fontes de erro, incerteza e aproximações no processo de otimização de cavas que precisam ser reconhecidas são discutidas abaixo.


Em resumo, esteja ciente de que o processo de otimização de cavas é baseado em parâmetros de entrada estimados aproximados e incertos. Dessa forma, a Deswik sugere que o usuário se concentre no quadro geral e obtenha estimativas o mais precisas possível dos itens de alto impacto. E lembre-se: "não se preocupe com coisas pequenas".


A Deswik também aconselha fazer o projeto de forma a minimizar os riscos associados ao lado negativo em suas suposições, conforme as estratégias de cenários propostas por Hall (2014) e Whittle (2009), mas também analisar o cenário otimista para determinar os limites da infraestrutura.



4.1 "Erros" de aproximação da solução


(a) O efeito do uso de blocos com lados verticais para representar uma solução (um projeto de cava) que tenha lados não verticais. É possível gerar uma concha suavizada através dos centroides dos blocos, mas observe que isso não fornecerá os mesmos resultados de toneladas e teor que a otimização baseada em blocos quando a superfície for cortada em relação aos blocos do modelo de recursos.


(b) Representação da exatidão da inclinação. A exatidão da inclinação geral criada no processo de modelagem em relação à inclinação desejada a ser modelada dependerá da altura e do número de dependências (arcos) usados para definir a inclinação dos taludes. Isso sempre precisará ser verificado quanto à adequação. Blocos maiores geralmente fornecem menos precisão de inclinação, e blocos menores que permitem maior precisão exigirão mais arcos modelados (precedências de bloco) e reduzirão a velocidade do processamento. Uma tolerância de precisão de cerca de 1° de erro médio é geralmente considerada aceitável.


(c) Mudanças na conversão da concha em um projeto de cava. Uma diferença de 5% em toneladas é bastante comum durante esse processo. Isso se deve à aproximação da inclinação total em relação ao projeto e aos efeitos reais da colocação de estradas de transporte nessa inclinação total.


(d) Efeito da largura mínima de mineração no fundo de uma concha. Muitas otimizações de cavas são realizadas sem considerar a largura mínima de mineração no fundo de cada concha – mesmo quando o pacote usado fornece essa facilidade. Isso alterará o valor da concha selecionada usada para o projeto. Atualmente, a implementação do Pseudoflow pela Deswik não possui uma ferramenta que considera a largura mínima de mineração — mas isso está nos planos futuros de desenvolvimento.


(e) Efeito das pilhas de estocagem. Os algoritmos de otimização de cava – tanto o Whittle LG quanto o Deswik Pseudoflow assumem que o valor gerado é o valor que ocorre no momento da mineração, e o estoque atrasa a recuperação desse valor. A estocagem por 10 anos ou mais significará que o valor no tempo do bloco de minério armazenado poderá ser uma fração do valor usado na otimização da cava. Minas com quantidades significativas de estoques marginais de minério sofrerão um efeito de superdimensionamento significativo devido à diferença entre quando o algoritmo avaliou o bloco e quando o valor foi realmente gerado.


Se uma política de teor de corte elevado for usada no planejamento da cava no início da vida útil desta, como meio de maximizar o VPL (Lane, 1988), a tonelagem estocada aumentará, e as diferenças de valor no tempo entre o momento em que a otimização da cava atribui o valor e quando o valor é realmente realizado no plano aumentam ainda mais.



4.2 Erros e problemas comuns de entrada/saída


(a) Erros na regularização do modelo de blocos e na Unidade Mínima de Mineração (SMU) assumida. Se for usado um modelo de blocos que apresente blocos com estimativa de teor menores que o tamanho da SMU, então uma seletividade de mineração irrealista será incorporada ao resultado. Se um modelo for regularizado para um tamanho maior que o SMU para fins de velocidade de processamento, os teores e classificações de tonelagem de minério/estéril no tamanho do SMU precisarão ser mantidos e não aproximados para o tamanho de bloco regularizado maior. Não considerar a seletividade excessiva pode facilmente resultar em cavas com uma expectativa de o dobro do valor de uma cava selecionada a partir de um modelo de blocos com uma SMU de tamanho apropriado.


(b) Uso de conchas com Fator de Receita (FR) = 1 para o projeto final da cava. Os limites de cava que maximizam o fluxo de caixa não descontado para um determinado projeto não maximizarão o VPL do projeto.


Conforme discutido por Whittle (2009), quando o valor temporal do dinheiro é levado em conta, pode ser demonstrado que as conchas externas da cava com RF = 1 reduzem valor, devido ao fato de que o custo de remoção de estéril precede as margens derivadas do minério obtido ao final. O efeito do fluxo de caixa descontado significa que os custos descontados superam as receitas com descontos mais pesados. A cava ótima do ponto de vista do Valor Presente Líquido (VPL) pode estar entre o fator de receita entre 0,65 e 0,95, dependendo da estrutura do depósito, das restrições de mineração (largura mínima de mineração, avanço vertical máximo por ano e limite de movimentação total) e a capacidade de processamento. Isso pode ser visto quando o pico do fluxo de caixa descontado do caso especificado está em uma menor tonelagem total do que o pico da curva de caixa total não descontado.


Apesar desse aspecto ser bem discutido na literatura técnica, a seleção de uma concha com RF=1 ainda é comumente vista na indústria para trabalhos de reservas de minério e estudos de viabilidade de projetos.


Além disso, a curva de valor de caixa descontado versus tonelagem tende a ser plana no topo. Por exemplo, é comum que o último terço da vida útil de uma mina seja bastante marginal. Embora valha a pena manter a opção de operar durante esse período e nessa parte do depósito, caso os preços, custos ou tecnologia melhorem, essa parte do recurso não deve ser considerada como parte fundamental e motivadora de um projeto (Whittle 2009).


(c) Parâmetros de desempenho da usina de processamento. Além do preço, o outro grande fator com incerteza significativa usado no cálculo da receita recebida para um bloco de minério é a recuperação da usina de processamento. Variações na recuperação para teor, mineralogia e dureza podem ser esperadas em comparação com a recuperação usada no modelo. A recuperação constante comumente usada estará quase sempre errada (seja porque é superestimada de forma otimista ou porque há um componente residual fixo que não é levado em conta).


Além disso, vale a pena destacar também que o valor do projeto muitas vezes pode ser aumentado sacrificando-se a recuperação de metais para buscar menor custo e maior rendimento – conforme discutido por Wooller (1999).


(d) Teor de corte. Se blocos com valores extremamente pequenos (centavos por tonelada de valor positivo) forem deixados dentro do modelo de blocos usado (efetivamente, utilizando o valor de teor de corte marginal igual a zero), então uma grande quantidade de minério será processada no projeto por um valor muito pequeno. Na realidade, uma porcentagem significativa do minério estará sendo extraída e processada por pouco mais do que o viável – conforme discutido em Poniewierski (2016).


A Deswik sugere que, para evitar essa situação, seja aplicado um valor de corte maior que zero. Sugere-se que um valor adequado seria a margem percentual mínima desejada nos custos de processamento e vendas empregados. Esses blocos teriam seu valor de receita definido como zero, de modo que eles não influenciariam a seleção ótima de concha. Uma vez que a concha final tenha sido selecionada e a cava final projetada, o material marginal nessa cava pode ser reconsiderado para inclusão em reservas de minério e estoque, se desejado.


Também deve ser observado que, para maximização do VPL, deve-se adotar uma política de teor de corte variável ou de valor de corte variável (conforme Lane 1988).



4.3 Incertezas na entrada de dados


(a) Incerteza geológica. Essa é uma das maiores fontes de erro em uma otimização de cava, pois os resultados da otimização de cava dependem, em última análise, da exatidão do modelo e da competência do geólogo que interpreta todos os dados geológicos disponíveis. O modelo de blocos foi criado a partir de dados esparsos imperfeitos que fazem suposições e estimativas sobre limites de mineralização, modelagem de teores de mineralização, interpretação de falhas e interpretação litológica.


Na experiência do autor, muitos modelos de recursos continham erros de metal de pelo menos 10% ou mais (superestimação do modelo) tendo-se visto erros de até 30%. Casos de subestimação também ocorrem e predominarão na literatura, pois ninguém gosta de discutir os resultados ruins publicamente. Na experiência dos autores, 70 a 80% de todos os modelos de recursos sofrem de superestimação em algum grau.


(b) Além da incerteza relativa aos teores, há também incerteza de densidade e incerteza de umidade in situ.

Efeito dos recursos inferidos. Devem ser incluídos ou não? Se incluídos, eles podem facilmente apresentar um erro de 50% ou mais. Se não incluído, o projeto será alterado quando forem convertidos para o status Indicado ou Medido.


(c) Incerteza geotécnica. Embora muito foco possa ser gasto em garantir que os ângulos gerais desejados sejam modelados com precisão, em muitos casos, as inclinações dos taludes fornecidas para uso podem ser pouco mais do que uma estimativa de um engenheiro geotécnico com base em dados muito escassos de qualidade de massa de rocha, conhecimento esparso e imperfeito de falhas, juntas, camadas e hidrologia. Mesmo em cavas em operação, as condições geotécnicas podem mudar rapidamente com relação às condições usadas no momento.


(d) Diluição e perda são quase sempre "suposições" – exceto para locais com vários anos de experiência operacional e um bom sistema de conciliação que permite a avaliação da diluição e perda (o que não é tão comum).


(e) Incerteza econômica. Essa também é uma das principais fontes de “erro” na otimização de cavas. Na análise de custos e receitas, temos que fazer suposições sobre o ambiente macroeconômico, como preços de commodities, taxas de câmbio, taxas de juros, inflação, custos de combustível e energia, custos de capital de sustentação, custos de contratação e custos de mão de obra. Para o preço da commodity em questão, podemos afirmar com confiança que o preço usado estará 100% errado por toda a vida da mina (nunca será um valor estático).


(f) Custos. Exceto no caso de minas operacionais com uma boa compreensão de seu histórico detalhado de fator de custo, geralmente há uma grande incerteza sobre os custos que estão sendo usados na otimização das cavas. Muitos dos parâmetros usados para estimar custos, como a seleção de equipamentos, taxa de produção anual, capacidade e requisitos da usina, etc., são apenas estimativas. Geralmente, há uma compreensão imperfeita dos custos fixos e variáveis que não refletem verdadeiramente as mudanças nos custos à medida que as cavas que estão sendo avaliadas mudam de tamanho.


Além disso, é preciso notar que os custos fixos (ou custos do período) precisam ser aplicados com base nos gargalos do sistema mina/usina. Como regra geral, esse é frequentemente o moinho SAG (sendo o limite a potência, e não a tonelagem).

5. Resumo

Os algoritmos Lerchs-Grossmann e pseudoflow são variações de algoritmos de fluxo de rede que obtêm o mesmo resultado. No entanto, o Pseudoflow é um algoritmo computacionalmente mais eficiente, desenvolvido cerca de 35 anos após o algoritmo original de Lerchs-Grossman (1965), e está disponível para uso há cerca de 15 anos, tendo a primeira implementação voltada à mineração apresentada em 2005 por Muir (2005).


Se forem observadas diferenças entre um resultado do Whittle LG e um resultado do Deswik Pseudoflow, a diferença estará na configuração usada. Existem inúmeros fatores e parâmetros de configuração que podem causar diferenças nos resultados de otimização de cavas, e o usuário deve estar ciente de todos eles para evitar cair em armadilhas dos erros comuns.


Deve-se observar que a implementação do Deswik não é limitada (e nem ajudada) pelas entradas de templates pré-definidos fornecidas no software Whittle para cálculos de custo e receita (esses templates podem ser restritivos para configurações muito simples ou configurações complexas que não são suportadas).


Para a implementação do Pseudoflow da Deswik, o usuário é obrigado a calcular as receitas e os custos para cada bloco no modelo de blocos utilizado e é obrigado a fazer sua própria regularização de blocos dentro do ambiente Deswik.CAD.


O usuário estará, portanto, no controle total de como os custos e receitas são calculados e alocados, mas isso exige que o usuário esteja totalmente familiarizado com seu modelo de blocos, estruturas de custo e parâmetros de receita (o que acreditamos ser algo positivo). Isso permite que os cálculos de custo e receita sejam tão simples ou complexos quanto necessário pelo usuário (sem as restrições dos diálogos de configuração dos templates).


Referências

Alford C G e Whittle J, 1986. Application of Lerchs–Grossmann pit optimization to the design of open pit mines, In Large Open Pit Mining Conference, AusIMM–IE Aust Newman Combined Group, 1986, 201–207.


Carlson, T R; Erickson, J D, O'Brain D T e Pana, M T, 1966. Computer techniques in mine planning, Mining Engineering, Vol. 18, No. 5, p.p. 53-56.


Chandran, B. G. e Hochbaum, D. S., 2009. A computational study of the pseudoflow and push-relabel algorithms for the maximum flow problem, Operations Research, 57(2): 358-376.


Deutsch, M., González, E. & Williams, M. 2015. Using simulation to quantify uncertainty in ultimate-pit limits and inform infrastructure placement, Mining Engineering, 67 (12), p.49-55.


Dagdelen, K, 2005. Open pit optimization — strategies for improving economics of mining projects through mine planning, in Orebody Modelling and Strategic Mine Planning, Spectrum Series No 14, pp 125-128 (The Australasian Institute of Mining and Metallurgy: Melbourne).


Espinoza, D, Goycoolea, M, Moreno, E, Newman, A, 2012.

MineLib: A Library of Open Pit Mining Problems, Ann. Oper. Res. 206(1), 91-114.


Francois-Bongarcon, D M e Guibal, D, 1984. Parameterization of optimal design of an open pit -beginning of a new phase of research, Transactions of Society of Mining Engineers, AIME, Vol. 274, pp. 1801-1805


Goldberg, A e Tarjan, R E, 1988. A new approach to the maximum flow problem, Journal of the Association for Computing Machinery, 35, 921-940.


Goldfarb, D e Chen, W, 1997. On strongly polynomial dual algorithms for the maximum flow problem, Special Issue of Mathematical Programming B, 78(2):159-168.


Hall, B, 2014. Cut-off Grades and Optimising the Strategic Mine Plan, Spectrum Series 20, 311 p (The Australasian Institute of Mining and Metallurgy: Melbourne).


Hochbaum, D S, 2008. A pseudoflow algorithm: a new algorithm for the maximum-flow problem, Operations Research, 56(4): 992-1009.


Hochbaum, D S e Chen, A, 2000. Performance analysis and best implementations of old and new algorithms for the open-pit mining problem, Operations Research, 48(6): 894-914.


Hochbaum, D S, 2001. A new-old algorithm for minimum-cut and maximum-flow in closure graphs, Networks, 37(4): 171-193.


Jiang, Y, D. 2015, “Impact of Reblocking on Pit Optimization” https://www.linkedin.com/pulse/effect-reblocking-pit-optimization-yaohong-d-jiang


Kentwell, D, 2002. MineMax Planner vs Whittle Four-X - an open pit optimization software evaluation and comparison, artigo técnico da MineMax disponível em https://www.minemax.com/downloads/Minemax-Planner-vs-FourX.pdf


Kim, Y C, 1978. Ultimate pit design methodologies using computer models the state of the art, Mining Engineering, Vol. 30, pp. 1454 1459.


King, V, Rao, S e Tarjan, R, 1992. A faster deterministic maximum flow algorithm, Proceedings of the Third Annual ACM-SIAM Symposium on Discrete Algorithms. Academic Press, Orlando, FL, EUA, 157-164.


Lane, K. F., 1988. The Economic Definition of Ore: Cut-off Grades in Theory and Practice (Mining Journal Books: London).


Lerchs, H. e Grossmann, I F, 1965. Optimum design of open pit mines, The Canadian Mining and Metallurgical Bulletin, Vol. 58, janeiro, pp.47-54.


McCarthy, P. L., 1993. “Pit Optimization” documento interno da AMC e artigo técnico no website da AMC, disponível em http://www.amcconsultants.com.au/library


Muir, D C W, 2005. Pseudoflow, new life for Lerchs-Grossmann pit optimization, in Orebody Modelling and Strategic Mine Planning, Spectrum Series No 14, pp 97-104 (The Australasian Institute of Mining and Metallurgy: Melbourne).


Pana, M, 1965. The simulation approach to open-pit design, In  J. Dotson and W. Peters, editors, Short Course and Symposium on Computers and Computer Applications in Mining and Exploration, College of Mines, University of Arizona, Tuscon, Arizona. pp. ZZ–1 – ZZ–24.


Picard, J, 1976. Maximal closure of a graph and applications to combinatorial problems, Management Science, Vol. 22, No. 11, pp. 1268–1272.


Poniewierski, J, 2016, Negatively geared ore reserves – a major peril of the break-even cut-off grade, Proc. AusIMM Project Evaluation Conference, Adelaide, 8-9 de março de 2016. pp236-247.


Whittle, G, 2009. Misguided objectives that destroy value, in Proceedings Orebody Modelling and Strategic Mine Planning, pp 97-101 (The Australasian Institute of Mining and Metallurgy: Melbourne).


Wooller, R, 1999. Cut-off grades beyond the mine – optimising mill throughput, in Proceedings Third Biennial Conference on Strategic Mine Planning. pp 217-230 (Whittle Programming: Melbourne).