ChapterPDF Available

Computer-Aided Decision Techniques for Hydrogeochemical Uranium Exploration

Authors:
  • Free Thinker @Moorea

Abstract

Multivariate analysis has been recognized as a powerful tool in geochemical exploration, but special emphasis also has been given to the necessity to complete adequate preliminary investigation of the data before attempting to use sophisticated data processing and manipulations. The methodology presented here relies on extensive experience with multivariate methods gained from the processing of large case studies coming from surveys carried out by French mining companies using hydrogeochemical uranium exploration. We have developed a robust methodological approach and a set of integrated software available on microcomputers to model the distribution of elements in water analysis and to account for the mixing of the geochemical end-members observed and to tackle the definition of an adjustable modeling of background compositions and of their related anomalies after the removal of the disturbing outliers from the recognized statistical populations has been achieved. The policies used lead to an efficient set of data processing, data integration, and data representation software making it possible to offer practical assistance to the exploration geochemist when faced with decision-making processes.
Technical Report
Full-text available
Ce document n'engage en rien le CSTB et ne reflète que les vues de son auteur principal. La mission logicielle telle qu’elle a été définie s’intéresse à un certain nombre de questions fondamentales qui ont toutes un impact sur la capacité du CSTB à agir en qualité de concepteur, développeur, producteur, éditeur et vendeur de logiciels. Bien que de nombreuses relations existent entre ces grandes questions, il a été pour des raisons de clarté de la présentation utile de les aborder de manière séparée, le lecteur devant conserver à l’esprit qu’elles sont souvent intimement liées. Par exemple, il ne saurait être question de politique technique sans s’intéresser aux dispositions organisationnelles qui peuvent être prises pour en garantir la bonne exécution, ou encore d’une stratégie technique qui ferait fi des réalité du terrain du point de vue du parc matériel et logiciel des utilisateurs ou de considérations commerciales lors du déploiement des produits en faisant des hypothèses fortes sur les capacités d’équipement des clients, etc. Ainsi les questions sont interdépendantes, et agir sur l’une sans mesurer les effets ou les conséquences sur les autres est de peu d’utilité. C’est probablement la complexité de chacun des sujets que nous allons aborder, couplée à leurs inter-relations qui rend l’activité logicielle difficile. La politique technique est une question essentielle. On y abordera des thèmes comme la mesure de la pertinence d’une solution technique, les conséquences en termes de productivité, de cohérence entre les développements entrepris dans différents départements du CSTB, d’interopérabilité et pérennité des développements logiciels par l’adoption de langages et de plate-formes de développement préférentiels, de la mise en œuvre de bibliothèques de composants logiciels réutilisables, de la documentation systématique et standardisée selon des normes de l’entreprise, de maintenance corrective et adaptative, etc. Le champ est immense et si le CSTB peut s’enorgueillir de posséder divers métiers celui du logiciel en tant que tel ne lui est finalement pas vraiment naturel. Les questions de responsabilités préoccupent la Direction du CSTB, à juste titre, compte tenu des conséquences importantes que peuvent avoir un usage erroné ou tout simplement hors des limites prévues d’un logiciel. Ceci est particulièrement vrai compte tenu des capitaux engagés dans des opérations de construction ou de TP, les erreurs, et malfaçons engendrés par voie de conséquences ou autres problèmes se soldant généralement par un impact financier important voire considérable et des délais, lesquels engendrent eux-même en retour des pénalités. Les hypothèses de modélisation et les techniques de résolution numériques, doivent être explicitées et comprises des utilisateurs qui doivent s’engager à décliner la responsabilité des concepteurs selon des modalités sur lesquelles nous reviendront par la suite. Au titre de la portée juridique interviennent également les questions de protection des logiciels, des droits qui leurs sont attachés et du transfert de ces droits aux utilisateurs, avec toutes les limites qu’il convient d’imposer pour diverses raisons, ne seraient-ce que celles de responsabilité qui viennent d’être exposées. Les processus décisionnels et la logique économique doivent être bien maîtrisés et la décision de la diffusion d’un logiciel doit être prise en parfaite connaissance de cause des implications sur les autres activités. On peut en effet parfois penser que la mise à disposition d’un outil logiciel sophistiqué auprès des utilisateurs finaux pourrait être de nature à diminuer les montants de contrats obtenus lorsque ces derniers s’appuyaient sur la mise en œuvre d’un logiciel propriétaire assez sophistiqué pour justifier de dispenser des prestations. Nous reviendrons par la suite sur ces arguments, et sans en dire davantage, nous avons tendance à penser que la diffusion du logiciel – si elle est faite correctement et que les utilisateurs peuvent s’appuyer sur l’éditeur en fonction que de besoin – peut au contraire augmenter les volumes d’affaires. Ce point de vue sera argumenté par la suite. La diffusion suppose des organisations et des démarches spécifiques tant pour le développement que pour la promotion et la commercialisation dans un contexte où la connaissance de l’évolution rapide des technologies informatiques reste un investissement permanent et où la cible commerciale est souvent mouvante. Il ne suffit pas de remplir un service que l’on a pu identifier à un moment donné et qui correspond à un besoin clair d’une population d’utilisateurs, encore faut-il que les conditions de la cible n’aient pas changées entre le moment où le chantier est lancé et celui où la commercialisation s’opère. Ce genre de problème s’est déjà malheureusement rencontré, ne serait-ce pour l’illustrer que dans le cas où l’utilisateur ne veut plus – par exemple – d’une solution utilisant des données en local, même si elles sont fréquemment mises à jour sous forme de CDs, mais où il souhaite pouvoir déporter ce coût vers le fournisseur en se connectant par internet à ses serveurs. Dans ce cas, même si le besoin est fonctionnellement satisfait par la solution proposée, le contexte technique ayant suffisamment changé et ce de manière assez rapide pour qu’une migration devienne difficile, il est alors très dur de commercialiser le produit qui rate sa cible. De ce point de vue, les étapes d’investissement doivent être contrôlées régulièrement, et les décisions doivent se fonder sur une analyse du type espérance de gains sur risque en tenant compte de la connaissance du marché, de la concurrence, d’un business plan, etc. Bien sûr et on le comprend aisément de ce qui vient d’être rapidement évoqué, le CSTB a tout intérêt à mettre en place des partenariats pour s’appuyer sur des spécialistes de ces diverses questions. Enfin, une mission comme celle-ci, conduite sur une durée de temps très limitée, n’aura permis que de survoler l’ensemble des questions qui se posent et d’offrir un panorama nécessairement un peu rustique de nombre de sujets qui mériteraient d’être approfondis. Acceptons en l’augure.
Chapter
Full-text available
This paper presents the development of a hydrogeological expert system able to handle the drilling location problem within the scope of village water-supply programs. This work is based on the experience the authors gained from thousands of drillings carried out in fifteen African countries. The cognitive model comes from the practical know-how acquired from real-world programs, from original statistics and probabilistics analyses showing connections between data collected during the drilling-site selection and hydrodynamic parameters registered in the borings and from the research the authors carried out in the artificial intelligence field to propose a comprehensive knowledge modeling framework. The paper includes a description of the specific knowledge involved in the drilling location process. Relevant hydrogeological parameters recognition and examples of advanced computer knowledge modeling methods are presented. First the rules of thumb and the interpretative frames retained for the cognitive model are described, then the characteristics of the HYDROLAB expert system devoted both to computer-aided decision and to computer-assisted learning support.
Article
Full-text available
In the Hydrogeochemical and Stream Sediment Reconnaissance phase of its National Uranium Resource Evaluation (NURE) program, the U.S. Department of Energy sampled many of the two-degree quadrangles of the National Topographic Map Series. Through a geological and statistical data analysis, we found that the NURE data are useful for assessing the uranium resource potential of the quadrangles.The computer-implemented System for Uranium Resource Evaluation (SURE) calculates a score for each quadrangle. We tested SURE by scoring the Pueblo, Montrose, Trinidad, and Durango quadrangles of southern Colorado, and we evaluated the scores in terms of the known occurrences and geology.
Article
This paper describes how hypertext concepts are supported in an object-oriented programming environment. Program fragments and documentation fragments are modelled as objects in an object-oriented programming language and several kinds of links are provided between these objects. Therefore the term hyperobject system is used. The links support document organizational relationships, abstract presentation, annotations, program semantical relationships, and program-documentation relationships.
Article
Geochemical data and external data (topographical, geological, geophysical data, etc) are digitized and stored in computer systems. Geochemical data sets are then divided into homogeneous subsets, defined by a logical expression taking into account external data. Within each subset, the geochemical data are summarized by using factor analysis, and then by using a classification system based upon factor loadings. The result obtained can be verified by reconstituting interactively on a digital image processor the initial geochemical maps from the summarized data. Final synthesis is achieved by defining the favorable areas through logical operations taking into account the data as a whole.-Authors
Article
This paper describes Symbolics’ newly redesigned object-oriented programming system, Flavors. Flavors encourages program modularity, eases the development of large, complex programs, and provides high efficiency at run time. Flavors is integrated into Lisp and the Symbolics program development environment. This paper describes the philosophy and some of the major characteristics of Symbolics’ Flavors and shows how the above goals are addressed. Full details of Flavors are left to the programmers’ manual, Reference Guide to Symbolics Common Lisp. (5).
Chapter
This chapter provides an overview of the things a user needs to remember while using robust techniques. The classical methods, means, variances, and least squares, are unsafe. It is perfectly proper to use both classical and robust/resistant methods routinely, and only worry when they differ enough to matter. However, when they differ, the user should think hard about the issue. The user needs a reasonably self-consistent set of procedures that are reasonably easy to use and reasonably easy to describe. Three things that the user needs to be clear about are: (1) efficiency, (2) order statistics and their linear combinations, and (3) multiple challenges related to the statistical techniques applicable to diverse challenges and assessments of the same.