1. Introducción
El propósito de este documento es informar al usuario sobre Deswik Pseudoflow, en el contexto del proceso de optimización de rajos más aceptado en la industria minera que utiliza el software Whittle basado en el algoritmo Lerchs-Grossman (LG).
En resumen, ambas son variaciones de algoritmos de flujo de red que logran el mismo resultado, siendo el algoritmo Pseudoflow un algoritmo más eficiente en lo informático y desarrollado 35 años después que el algoritmo original de Lerchs-Grossman (1965).
Se necesitaron 20 años desde la formulación del algoritmo LG para incorporarlo al primer software disponible en el mercado (Whittle Three-D), y otros 10 años antes de que se convirtiera en un enfoque generalizado para la optimización de minas a rajo abierto.
En los últimos 30 años, Whittle y el algoritmo LG se han convertido en sinónimo de optimización de minas a rajo abierto, y ahora sufren de haberse convertido en un término genérico del proceso de optimización de minas, similar al carácter genérico de la marca Hoover con aspiradoras en el Reino Unido (por ejemplo, en el Reino Unido, la gente aspira [hoover] las alfombras).
Han pasado 15 años desde la formulación del algoritmo pseudoflow, y hay al menos tres implementaciones comerciales disponibles, incluida la de Deswik.
Así como aspirar no debe ser con una aspiradora Hoover (de hecho, la aspiradora ciclónica Dyson es reconocida como mucho más eficiente en la aspiración) ahora se debe usar el algoritmo Pseudoflow para reemplazar al algoritmo LG a fin de “perfeccionar” la optimización de la mina a rajo abierto.
Es importante destacar que la implementación de Deswik no está limitada por las extensas tablas de parámetros de configuración (ni le es de ayuda)
y los datos de entrada proporcionados en el software Whittle para los cálculos de costos e ingresos. Para Deswik
En la implementación de Pseudoflow de Deswik, el usuario debe calcular los ingresos y los costos de cada bloque en el modelo utilizado, y debe llevar a cabo su propia regularización de bloques en el entorno Deswik.CAD. El usuario tiene el control total de cómo se calculan y asignan los costos y los ingresos. Sin embargo, esto requiere que el usuario esté completamente familiarizado con el modelo de bloques, las estructuras de costos y los parámetros de ingresos (lo que consideramos algo positivo). Esto permite que la configuración sea tan flexible como lo requiera el usuario (sin las limitaciones de los cuadros de diálogo de configuración de plantillas).
2. Historial de optimización de rajos
2.1 Proceso manual
Antes de desarrollar métodos computarizados para la optimización y el diseño de los rajos, los ingenieros de minas utilizaban métodos de interpretación manual con evaluación en secciones transversales dibujadas a mano (en papel o en película) y, luego, un diseño manual de la mina.
En el método manual, se solía realizar una optimización simple de la profundidad económica del rajo con una calculadora analógica (o una regla de cálculo) para los yacimientos de forma regular mediante áreas de sección transversal incrementales, para minerales y desechos, y una pendiente general del rajo. La relación de extracción incremental (la relación del tonelaje de desechos que se debe mover para acceder al siguiente incremento de masa de mineral) en cada sección transversal se compara con la relación de extracción de punto de equilibrio de la ley del mineral estimada y los ingresos y los costos apropiados.
A continuación, se produjo el contorno final del rajo, dibujando contornos del rajo cada vez más grandes en sección transversal, de manera que
el último incremento tenía una relación de extracción igual al máximo de diseño.
Este era un enfoque que requería mucha mano de obra y solo podía aproximarse al rajo óptimo. El diseño tenía que realizarse en una gran cantidad de secciones transversales y seguía siendo inexacto, porque abordaba el problema desde solo dos dimensiones. En casos de ley altamente variable, el problema se volvía en extremo complejo y dependía en gran medida de la “intuición” de un diseñador experimentado mediante el ensayo y el error.
2.2 Cono flotante
Pana (1965) introdujo un algoritmo llamado Cono móvil (o flotante). El método fue elaborado en Kennecott Copper Corporation a principios de la década de 1960 (McCarthy, 1993) y fue el primer intento computarizado de optimizar el rajo, ya que se requirió un modelo tridimensional computarizado por bloques del yacimiento mineral.
Los límites finales proyectados del rajo se elaboran utilizando una técnica de “cono” móvil (o más bien un tronco de cono invertido, es decir, el extremo “puntiagudo” se ha cortado hasta un área mínima de explotación). El cono se mueve en el espacio del modelo de bloques para generar una serie de incrementos entrelazados de remoción en forma de tronco de cono.
Sin embargo, la desventaja de este enfoque es que crea conos superpuestos y es incapaz de examinar todas las combinaciones de bloques adyacentes. Por esta razón, el algoritmo no entrega resultados realistas de manera constante.
Mintec/MineSight (una empresa con sede en Estados Unidos y proveedora de soluciones tempranas para Kennecott) fue una de las primeras empresas en implementar el algoritmo de cono flotante (y aún puede ofrecerlo en su conjunto de soluciones).
2.3 Lerchs-Grossman
También fue en 1965 cuando Lerchs y Grossmann publicaron un artículo que presentaba dos enfoques de modelado para resolver el problema de la optimización de mina a rajo abierto. El algoritmo de Lerchs-Grossman (LG) está bien documentado en la literatura técnica (Lerchs y Grossman, 1965; Zhao y Kim 1992; Seymour, 1995; Hustrulid y Kuchta 2006).
El método LG se basaba en una técnica matemática que era inutilizable en la práctica, hasta que Jeff Whittle de Whittle Programming Pty Ltd. desarrolló un programa práctico de optimización, llamado Whittle Three-D, a mediados de la década de los ochenta.
Lerchs y Grossmann detallaron dos métodos para solucionar la optimización de mina a rajo abierto, siendo uno de ellos un
algoritmo de teoría de grafos, que es un enfoque heurístico, y un algoritmo de programación dinámica, que es una aplicación de una técnica de investigación de operaciones. Ambos métodos dieron un límite de rajo óptimo a un flujo de caja sin descontar, basado en un modelo de bloques económicos de un yacimiento y sus residuos circundantes, y permitieron determinar qué bloques deben ser extraídos para obtener el valor máximo en dólares del rajo.
En los métodos del LG, se tuvieron en cuenta dos tipos de información:
- (i) Las pendientes requeridas para la minería. Por cada bloque del modelo, el método LG necesita detalles sobre qué otros bloques se deben eliminar para descubrirlo. Esta información se almacena como “arcos” entre los bloques (“nodos”).
- (ii) El valor en dólares de cada bloque una vez que se haya descubierto. En el caso de un bloque de desechos, este será negativo y será el costo de la tronadura, la excavación y el transporte. En el caso de un bloque de mineral, el costo de remoción se compensará con el valor del mineral recuperado, menos los costos de procesamiento, ventas y otros costos asociados. A cualquier bloque que, durante la explotación, pueda separarse en desechos y mineral, se le asigna un valor que refleje esto.
Dados los valores de los bloques (positivos y negativos) y los arcos de la estructura, el método LG va formando una lista de bloques relacionados en forma de ramas de un árbol (llamado “gráfico” en matemáticas). Las ramas se marcan como “fuertes” si el total de sus valores por bloques es positivo. Vale la pena explotar esas ramas si están descubiertas. Otras ramas con valores totales negativos se marcan como “débiles”.
Luego, el método LG busca arcos de estructura, que indican que alguna parte de una rama fuerte se encuentra debajo de una rama débil. Cuando se encuentra un caso así, se reestructuran las dos ramas para eliminar el conflicto. Esto puede implicar combinar las dos ramas en una sola (que puede ser fuerte o débil) o romper una ‘ramita’ de una rama y agregarla a la otra rama.
La verificación continúa hasta que no haya ningún arco de estructura que vaya de una rama fuerte a una rama débil. En este punto, los bloques de todas las ramas fuertes en conjunto constituyen y definen el rajo óptimo. Los bloques en las ramas débiles son los que se dejarán atrás cuando se complete la explotación.
En efecto, lo que el algoritmo LG hizo fue encontrar el cierre máximo de un gráfico dirigido ponderado. En este caso, los vértices representan los bloques en el modelo, los pesos representan la ganancia neta del bloque y los arcos representan las restricciones de explotación (generalmente en pendiente). Como tal, el algoritmo LG ofrece una solución matemáticamente óptima al problema de maximizar el valor del rajo (es importante tener en cuenta que esto es para un valor de flujo de caja sin descontar).
Cabe señalar que se trata de una solución matemática. Salvo por la información que proporcionan los arcos, el algoritmo LG no “sabe” nada sobre las posiciones de los bloques, ni siquiera sobre la minería. El algoritmo de LG funciona solo con una lista de vértices y una lista de arcos. Ya sea que se presenten en una, dos o tres dimensiones y cuántos arcos se utilicen por bloque es irrelevante para la lógica del método, que es puramente matemático.
También se debe tener en cuenta que pasaron unos 20 años entre la publicación del método LG (1965, que también fue el año en que se computarizó el método de cono flotante) y la primera adopción comercial disponible del método LG (Whittle Three-D).
El algoritmo básico de LG se ha utilizado durante más de 30 años en muchos estudios de factibilidad y en muchas minas productivas.
2.4 Soluciones de flujo de red
“En su artículo de 1965, Lerchs y Grossmann indicaron que el problema del rajo final podía expresarse como un problema de flujo máximo en una red de cierre; sin embargo, recomendaron su enfoque directo, posiblemente debido a las limitaciones de memoria de las computadoras en ese momento. El algoritmo LG fue, por lo tanto, un método para resolver un caso especial de un problema de flujo de red” (Deutsch, et al, 2015).
En 1976, Picard “proporcionó una prueba matemática de que un problema de flujo máximo en una red de cierre (del cual el problema de optimización de corte abierto es uno) era reducible a un problema de flujo de ‘corte mínimo’ y, por lo tanto, podía resolverse mediante cualquier algoritmo eficiente de flujo máximo. Como consecuencia, se podrían utilizar algoritmos sofisticados de flujo de red, en lugar del algoritmo de LG, y se podrían calcular resultados idénticos en una fracción del tiempo” (Deutsch et al., 2015).
Uno de los primeros algoritmos eficientes de flujo máximo utilizado para resolver el problema de la optimización de rajo abierto fue el algoritmo de “empuje-reetiquetado” (Goldberg y Tarjan, 1988; King et al., 1992; Goldfarb y Chen, 1997).
“En el estudio de Hochbaum y Chen (2000), se evidenció que el algoritmo de empuje-reetiquetado superó al algoritmo LG en casi todos los casos. Cuando la cantidad de vértices es grande, superior a un millón, los algoritmos de flujo de red realizan órdenes de magnitud más rápido y calculan con precisión los mismos resultados” (Deutsch et al, 2015).
Numerosos autores implementaron el algoritmo de empuje-reetiquetado, y se desarrollaron diversas heurísticas y técnicas para maximizar su rendimiento. Este fue el algoritmo que MineMax implementó en su primera oferta de software de optimización de minas.
Se han seguido elaborando algoritmos para un flujo de red más eficiente. El algoritmo generalmente aceptado y más eficiente que existe en la actualidad son los diversos algoritmos de Pseudoflow, desarrollados por la profesora Dorit Hochbaum y sus colegas de la Universidad de California, Berkeley (Hochbaum, 2002, 2001; Hochbaum y Chen, 2000).
Los métodos Pseudoflow dan nueva vida a la optimización de los rajos de LG. La implementación del método de “etiqueta superior” del algoritmo de Pseudoflow en particular es más rápida de forma constante que los métodos LG genéricos, y también suele ser más rápida que la implementación del método alternativo de “etiqueta inferior” del algoritmo de Pseudoflow. El aumento de la velocidad puede ser de 2 a 50 veces más rápido que los métodos LG y, en teoría, mucho más rápido para problemas más grandes (Muir, 2005).
3. Comparaciones de rendimiento de algoritmos
Muir (2005) presentó el análisis más completo del rendimiento del algoritmo Pseudoflow y un ejemplo práctico de resultados idénticos logrados en comparación con el algoritmo LG cuando se resuelve una optimización de rajos. Estos análisis y resultados se presentaron al sector minero en general en la publicación de la serie AusIMM Spectrum de 2005: Modelado de minerales y planificación estratégica de minas. Los resultados clave del análisis de Muir se reproducen aquí.
Cabe destacar que el código escrito por Muir (2005) es el motor de cálculo subyacente que se ha implementado en Deswik Pseudoflow.
Para verificar la correcta implementación de ese código, se compararon los resultados de la implementación de Deswik con cuatro conjuntos de datos de prueba de acceso público de Minelib1 (Espinoza et al, 2012). Los conjuntos de datos específicos contra los que se verificaron los resultados fueron para Marvin, McLaughlin, KD y P4HD. Los resultados de Pseudoflow fueron idénticos a los resultados publicados en Minelib.
En la tabla 1 (de Muir, 2005) se muestran los tiempos de ejecución relativos para varias variantes de los algoritmos LG y pseudoflow. A partir de estos resultados, se puede ver que la implementación de la “cola de prioridad Pseudoflow de etiqueta más alta” (HLPQ, por sus siglas en inglés) tardó poco menos del 2 % del tiempo que tardó el algoritmo estándar de LG en resolver un problema de optimización de rajo de 38 bancos.
En la Tabla 2 (de Muir, 2005), se muestra que la cantidad de bloques y el valor de ganancias de la solución HLPQ fueron idénticos a la solución LG para el mismo problema de optimización de rajo con 38 bancos.
Los tiempos de solución relativos que se muestran en la Tabla 1 están representados de manera gráfica en la Figura 1.
Además del artículo de Muir, hay un par de otros ejemplos conocidos de comparaciones publicadas entre el algoritmo LG y las soluciones de red de flujo para el problema de optimización de rajo.
Jiang (2015) declaró que siempre se ha encontrado que los límites finales del rajo, cuando se utiliza una implementación del algoritmo Pseudoflow frente a la implementación del Whittle LG, son prácticamente iguales, y que cualquier diferencia menor que se observe siempre se debe a la forma en que las diversas implementaciones calculan las restricciones del ángulo de pendiente.
El algoritmo de empuje-reetiquetado implementado por MineMax se comparó con el algoritmo LG de SRK (Kentwell, 2002) y se encontró que generaba “los mismos resultados para los cálculos reales de rajo óptimos” (hasta menos de un 0,01 %; las diferencias parecen deberse a la tosquedad de los bloques y a las pendientes).
4. Problemas de modelado a tener en cuenta
Una vez que se ha demostrado que el algoritmo Pseudoflow da resultados idénticos al algoritmo LG, también es apropiado señalar que ninguna solución algorítmica proporcionará la solución de optimización “verdadera” y exacta. Hay una gran cantidad de aproximaciones integradas en la solución algorítmica para el problema de optimización de rajos, así como una serie de errores comunes y supuestos inciertos que se utilizan en el proceso.
La enorme labor dedicada al desarrollo de optimización sofisticada de algoritmos no suele coincidir con la atención que se presta a mejorar la exactitud y la confiabilidad de los datos utilizados en el ejercicio de modelado, como también el uso correcto de los resultados del modelado.
Algunas de las muchas fuentes de error, incertidumbre y aproximaciones en el proceso de optimización de rajos que se deben reconocer se analizan a continuación.
En resumen, tenga en cuenta que el proceso de optimización de rajos se basa en parámetros de entrada estimados aproximados e inciertos. Por lo tanto, Deswik recomienda que el usuario se concentre en la imagen general y obtenga estimaciones lo más precisas posible de los elementos principales. Y recuerde: “No te preocupes por las cosas pequeñas”.
Además, Deswik recomienda diseñar para minimizar el riesgo de las pérdidas en las suposiciones, de acuerdo con las estrategias de situaciones defendidas por Hall (2014) y Whittle (2009), pero también verificar la situación optimista para determinar los límites conceptuales de la infraestructura.
4.1 “Errores” de aproximación a la solución
(a) El efecto de usar bloques con lados verticales para representar una solución (un diseño de rajo) que tiene lados que no son verticales. Es posible generar un contorno alisado a través de los centroides de los bloques; sin embargo, tenga en cuenta que esto no dará los mismos resultados en toneladas y leyes que la optimización basada en bloques cuando se corta la superficie contra los bloques del modelo de recursos.
b) Representación de la precisión de las pendientes. La precisión de la pendiente general creada en el proceso de modelado con respecto a la pendiente que se desea modelar dependerá de la altura y de la cantidad de dependencias técnicas (arcos) utilizadas para definir la pendiente. Siempre será necesario verificar la idoneidad. En general, los bloques más grandes darán menos precisión en los taludes, mientras que los bloques más pequeños, que permiten una mayor precisión, requerirán más arcos modelados (precedencias de bloques) y desacelerarán el procesamiento. Una tolerancia de precisión de alrededor de 1° de error promedio suele considerarse aceptable.
(c) Cambios en la conversión de un contorno a un diseño de rajo. Una diferencia del 5 % en toneladas es bastante común durante este proceso. Esto se debe a la aproximación de la pendiente general con respecto al diseño real y a los efectos de la ubicación de las carreteras de transporte en esa pendiente general.
d) Efecto de la anchura mínima de explotación en la base de un contorno. Muchas optimizaciones de rajo se realizan sin tener en cuenta la anchura mínima de explotación en la parte inferior de cada contorno, incluso cuando el paquete utilizado proporciona dicha funcionalidad. Esto cambiará el valor del contorno seleccionado y utilizado para el diseño. En la actualidad, la implementación de Pseudoflow de Deswik no tiene una herramienta para considerar la anchura mínima de minería; no obstante, esto está en los planes de desarrollo futuro.
e) Efectos del apilamiento. Los algoritmos de optimización de rajo, tanto Whittle LG como Deswik Pseudoflow, suponen que el valor generado es el valor del momento de la extracción, y el apilamiento retrasa la recuperación de ese valor. El apilamiento durante 10 o más años significará que el valor temporal del bloque de mineral apilado puede ser una fracción del valor utilizado en la optimización del rajo. Las minas con cantidades significativas de mineral en apilamientos mínimos sufrirán un efecto de sobredimensionamiento significativo, debido a la diferencia entre el momento en que el algoritmo asigna valor al bloque y el momento en que se genera el valor.
Si se utiliza una política de ley de corte elevada en la programación del rajo al principio de la vida útil de este, como medio de maximizar el VAN (Lane, 1988), aumentará el tonelaje apilado y aumentarán aún más las diferencias de valor relacionadas con el tiempo entre el momento en que la optimización del rajo asigna el valor y el momento en que el valor se materializa en el plan.
4.2 Errores y problemas comunes de entrada/salida
(a) Errores en la regularización del modelo de bloques y la suposición de la unidad minera más pequeña (SMU, por sus siglas en inglés). Si se utiliza un modelo de bloques que presenta bloques estimados de ley más pequeños que el tamaño de la SMU, se incorporará una selectividad de explotación poco realista en el resultado. Si un modelo se regulariza a un tamaño mayor que el de la SMU para fines de velocidad de procesamiento, las clasificaciones de tonelaje de mineral y desechos en el tamaño de la SMU deben mantenerse y no atenuarse respecto del tamaño de bloques regularizado más grande. Si no se tiene en cuenta la selectividad excesiva, se pueden generar fácilmente rajos con una expectativa del doble del valor de un rajo seleccionado a partir de un modelo de bloques con una SMU de tamaño adecuado.
(b) Uso de un factor de ingresos (RF) = 1 contorno para el diseño final del rajo. Los límites del rajo que maximizan el flujo de caja no descontado de un proyecto determinado no maximizarán el VAN del proyecto.
Como señaló Whittle (2009), cuando se tiene en cuenta el valor temporal del dinero, se puede demostrar que las capas exteriores del rajo RF = 1 reducen el valor, debido a que el costo de la remoción de desechos precede a los márgenes derivados del mineral obtenido en última instancia. El efecto del flujo de caja descontado significa que los costos descontados superan a los ingresos con mayor descuento. El rajo óptimo desde el punto de vista del valor actual neto (VAN) puede estar entre un factor de rentabilidad del 0,65 y 0,95, según la estructura del yacimiento y las limitaciones de explotación (anchura mínima de explotación, avance vertical máximo por año y límite al movimiento total) y la capacidad de procesamiento. Esto se puede observar cuando el máximo flujo de caja descontado del caso especificado se encuentra en un tonelaje total más bajo que la curva de caja máxima total sin descontar.
A pesar de que este aspecto se discute en gran medida en la literatura técnica, la selección del contorno RF=1 todavía se observa comúnmente en el sector para trabajos de reservas de mineral y estudios de factibilidad de proyectos.
Además, la curva del valor descontado frente al tonelaje tiende a ser plana en la parte superior. Por ejemplo, es común que el último tercio de la vida útil de la mina sea bastante insignificante. Si bien vale la pena mantener la opción de explotar durante este período y en esta parte del yacimiento, en caso de que mejoren los precios, los costos o la tecnología, esta parte del recurso no debe considerarse como una parte central y un impulsor de un proyecto (Whittle, 2009).
c) Parámetros de rendimiento de la planta de procesamiento. Además del precio, el otro factor importante con una incertidumbre significativa, y que se utiliza en el cálculo de los ingresos recibidos mediante un bloque de mineral, es la recuperación en planta. Se pueden esperar variaciones en la recuperación para el tenor, la mineralogía y la dureza en comparación con la recuperación utilizada en el modelo. La recuperación constante que se utiliza de forma común casi siempre será incorrecta (ya sea porque se sobreestima de manera optimista o porque hay un componente fijo de cola que no se tiene en cuenta).
Además, también se debe tener en cuenta que el valor del proyecto suele aumentar con el sacrificio de la recuperación de metales para lograr un menor costo y un mayor rendimiento, como se discute en Wooller (1999).
d) Ley de corte. Si se dejan bloques con valores extremadamente pequeños (centavos por tonelada de valor positivo) dentro del modelo de bloques utilizado (en la práctica, emplear un valor de ley de corte marginal de cero), se procesará una gran cantidad de mineral en el proyecto por muy poco valor. En efecto, un porcentaje significativo del mineral se extrae y procesa para poco más que la práctica, como se analiza en Poniewierski (2016).
Deswik sugiere que, para evitar esta situación, se aplique un valor de corte mayor que cero. Se sugiere que un valor adecuado sería el margen porcentual mínimo deseado sobre los costos de procesamiento y ventas empleados. El valor de los ingresos de estos bloques se establecería en cero, por lo que no influyen en la selección óptima de los contornos. Una vez que se selecciona el corte final y se diseña el rajo final, se puede reconsiderar el material marginal en ese corte para incluirlo en las reservas de mineral y el apilamiento si así se desea.
También debe tenerse en cuenta que para maximizar el VAN se debe adoptar una política de ley de corte o valor de corte variable (como Lane 1988).
4.3 Incertidumbres de los datos de entrada
a) Incertidumbre geológica. Esta es una de las mayores fuentes de error en la optimización de un rajo, ya que los resultados de la optimización dependen en última instancia de la precisión del modelo y de la competencia del geólogo para interpretar todos los datos geológicos disponibles. El modelo por bloques se creó a partir de datos escasos e imperfectos que implican suposiciones y estimaciones sobre los límites de mineralización, modelamiento de leyes de mineralización, interpretación de fallas e interpretación de litología.
En la experiencia del autor, muchos modelos de recursos han contenido errores de metal de al menos un 10 % o más (sobreestimación del modelo) y se han observado en hasta un 30 %. También se producen casos de subestimación y predominarán en la literatura, ya que a nadie le gusta discutir los malos resultados en público. En la experiencia de los autores, del 70 % al 80 % de todos los modelos de recursos sufren de sobreestimación hasta cierto punto.
b) Además de la incertidumbre de la ley, también existe la incertidumbre de la densidad y la incertidumbre de la humedad in situ.
Efecto de los recursos inferidos. ¿Deberían incluirse o no? Si se incluyen, pueden tener fácilmente un error del 50 % o más. Si no se incluyen, el diseño cambiará cuando se conviertan en estado Indicado o Medido.
c) Incertidumbre geotécnica. Si bien se puede dedicar mucho tiempo a garantizar que los ángulos generales deseados se modelen con precisión, en muchos casos las pendientes proporcionadas para su uso pueden superar un poco una estimación aproximada de un ingeniero geotécnico, basada en muy pocos datos de calidad de la masa rocosa, un conocimiento escaso e imperfecto de las fallas, las juntas, la estratificación y la hidrología. Incluso en los rajos en operación, las condiciones geotécnicas pueden cambiar rápidamente respecto a las que se utilizan en la actualidad.
d) La dilución y la pérdida casi siempre son “conjeturas”, excepto en los sitios con varios años de experiencia operativa y un buen sistema de reconciliación que permita evaluar la dilución y la pérdida (lo que no es tan común).
e) Incertidumbre económica. Esta es también una de las principales fuentes de “error” con la optimización de los rajos. En el análisis de los costos y los ingresos, debemos hacer suposiciones sobre el entorno macroeconómico, como los precios de las materias primas, las tasas de cambio, las tasas de interés, la inflación, los costos de combustible y energía, los costos de capital de mantenimiento, los costos de los contratistas y los costos de la mano de obra. Para el precio de las materias primas en particular, podemos afirmar con confianza que el precio utilizado será por completo incorrecto durante toda la vida útil de la mina (nunca será un valor estático).
f) Costos. Excepto en el caso de las minas en operación, con una buena comprensión del historial detallado de los impulsores de costos, en general hay mucha incertidumbre sobre los costos que se utilizan en la optimización de los rajos. Muchos parámetros que se utilizan para estimar los costos, como la selección de equipos, el ritmo de producción anual, la capacidad y los requisitos de la planta, etc., son solo estimaciones. Por lo general, hay una comprensión deficiente de los costos fijos y las variables que no reflejan en realidad los cambios en los costos, a medida que los rajos que se evalúan cambian de tamaño.
Además, se debe tener en cuenta que los costos fijos (o los costos por unidad de tiempo) se deben aplicar en función del cuello de botella del sistema de mina/molino. Como regla general, este suele ser el molino SAG (siendo la potencia en lugar del tonelaje el límite).
5. Resumen
Tanto el algoritmo de Lerchs-Grossmann como el algoritmo de pseudoflow son variaciones de algoritmos de flujo de red que logran el mismo resultado. Sin embargo, Pseudoflow es un algoritmo computacionalmente más eficiente, desarrollado unos 35 años después del algoritmo original de Lerchs-Grossman (1965), y ha estado disponible para su uso durante alrededor de 15 años; la primera implementación para minería se discutió en el 2005 (Muir, 2005).
Si se observan diferencias entre un resultado de Whittle LG y un resultado de Deswik Pseudoflow, la diferencia se debe a la configuración utilizada. Existen numerosos factores y parámetros de configuración que pueden causar diferencias en los resultados de la optimización de excavación, y el usuario debe estar al tanto de todos ellos para evitar errores comunes.
Cabe señalar que la implementación de Deswik no está limitada (ni está asistida) por las entradas de plantillas predefinidas y proporcionadas en el software Whittle para los cálculos de costos e ingresos (estas plantillas pueden ser restrictivas tanto para configuraciones muy simples como para configuraciones complejas que no están contempladas).
Para la implementación de Pseudoflow de Deswik, el usuario debe calcular los ingresos y los costos de cada bloque en el modelo de bloques utilizado, y debe realizar su propia regularización de las celdas del bloque dentro del entorno de Deswik.CAD.
Por lo tanto, el usuario tiene el control total de la manera en que se calculan y asignan los costos y los ingresos, pero esto requiere que el usuario esté completamente familiarizado con su modelo de bloques, las estructuras de costos y los parámetros de ingresos (lo cual consideramos positivo). Esto permite que los cálculos de costos e ingresos sean tan simples o complejos como lo requiera el usuario (sin las restricciones de los diálogos de configuración de plantillas).
Referencias
Alford C G y Whittle J, 1986. Application of Lerchs–Grossmann pit optimization to the design of open pit mines, In Large Open Pit Mining Conference, AusIMM–IE Aust Newman Combined Group, 1986, págs. 201–207.
Carlson, T R; Erickson, J D, O'Brain D T y Pana, M T, 1966. Computer techniques in mine planning, Mining Engineering, volumen 18, número. 5, págs. 53-56.
Chandran, B G y Hochbaum, D S, 2009. A computational study of the pseudoflow and push-relabel algorithms for the maximum flow problem, Operations Research, 57(2): págs. 358-376.
Deutsch, M., González, E. y Williams, M. 2015. Using simulation to quantify uncertainty in ultimate-pit limits and inform infrastructure placement, Mining Engineering, 67 (12), págs. 49-55.
Dagdelen, K., 2005. Open pit optimization — strategies for improving economics of mining projects through mine planning, in Orebody Modelling and Strategic Mine Planning, Spectrum Series No 14, págs. 125-128 (The Australasian Institute of Mining and Metallurgy: Melbourne).
Espinoza, D, Goycoolea, M, Moreno, E y Newman, A N, 2012.
MineLib: A Library of Open Pit Mining Problems, Ann. Oper. Res. 206(1), 91-114.
Francois-Bongarcon, D M and Guibal, D, 1984. Parametrización del diseño óptimo de una explotación a rajo abierto, inicio de una nueva fase de investigación, Transactions of Society of Mining Engineers, AIME, Vol. 274, págs. 1801-1805
Goldberg, A y Tarjan, R E, 1988. A new approach to the maximum flow problem, Journal of the Association for Computing Machinery, 35, págs. 921-940.
Goldfarb, D y Chen, W, 1997. On strongly polynomial dual algorithms for the maximum flow problem, Special Issue of Mathematical Programming B, 78(2):159-168.
Hall, B, 2014. Cut-off Grades and Optimising the Strategic Mine Plan, Spectrum Series 20, pág. 311 (The Australasian Institute of Mining and Metallurgy: Melbourne).
Hochbaum, D S, 2008. A pseudoflow algorithm: a new algorithm for the maximum-flow problem, Operations Research, 56(4): págs. 992-1009.
Hochbaum, D S y Chen, A, 2000. Performance analysis and best implementations of old and new algorithms for the open-pit mining problem, Operations Research, 48(6): págs. 894-914.
Hochbaum, D S, 2001. Un algoritmo nuevo y antiguo para el corte mínimo y el flujo máximo en gráficos de cierre, Networks, 37(4): 171-193.
Jiang, Y, D. 2015, “Impact of Reblocking on Pit Optimization” https://www.linkedin.com/pulse/effect-reblocking-pit-optimization-yaohong-d-jiang
Kentwell, D, 2002. MineMax Planner vs Whittle Four-X - an open pit optimization software evaluation and comparison, documento técnico de MineMax, disponible en https://www.minemax.com/downloads/Minemax-Planner-vs-FourX.pdf
Kim, Y C, 1978. Ultimate pit design methodologies using computer models the state of the art, Mining Engineering, volumen 30, págs. 1454-1459.
King, V, Rao, S y Tarjan, R, 1992. A faster deterministic maximum flow algorithm, Proceedings of the Third Annual ACM-SIAM Symposium on Discrete Algorithms. Academic Press, Orlando, FL, Estados Unidos, págs 157-164.
Lane, K F, 1988. The Economic Definition of Ore: Cut-off Grades in Theory and Practice (Mining Journal Books: Londres).
Lerchs, H y Grossmann, I F, 1965. Optimum design of open pit mines, The Canadian Mining and Metallurgical Bulletin, volumen 58, enero, pp.47-54.
McCarthy, P L, 1993. Documento interno “Pit Optimization” para AMC and documento técnico en el sitio web AMC, disponible en http://www.amcconsultants.com.au/library
Muir, D C W, 2005. Pseudoflow, new life for Lerchs-Grossmann pit optimization, en Orebody Modelling and Strategic Mine Planning, Spectrum Series n.º 14, págs. 97-104 (The Australasian Institute of Mining and Metallurgy: Melbourne).
Pana, M, 1965. The simulation approach to open-pit design, en J. Dotson y W. Peters, editores, Short Course and Symposium on Computers and Computer Applications in Mining and Exploration, College of Mines, Universidad de Arizona, Tuscon, Arizona. págs. ZZ–1 – ZZ–24.
Picard, J, 1976. Maximal closure of a graph and applications to combinatorial problems, Management Science, volumen 22, No. 11, págs. 1268–1272.
Poniewierski, J, 2016, Negatively geared ore reserves – a major peril of the break-even cut-off grade, Proc. AusIMM Project Evaluation Conference, Adelaida, 8-9 de marzo del 2016. págs. 236-247.
Whittle, G, 2009. Misguided objectives that destroy value, in Proceedings Orebody Modelling and Strategic Mine Planning, págs. 97-101 (The Australasian Institute of Mining and Metallurgy: Melbourne).
Wooller, R, 1999. Cut-off grades beyond the mine – optimising mill throughput, in Proceedings Third Biennial Conference on Strategic Mine Planning. págs. 217-230 (Whittle Programming: Melbourne).