top of page
oil-rigs-in.jpg

AI and Quantum Computing in

Oil and Gas UpStream 

 

 

 

COURSE OBJECTIVE

El aprendizaje automático y las tecnologías avanzadas son la nueva estrategia inminente para aliviar los problemas de la industria del petróleo y el gas y añadir valor empresarial. Estos sectores y empresas aspiran a adoptar la novedosa tecnología de aprendizaje automático, pero luchan por ello debido a la falta de conocimientos de aprendizaje automático, lo que se traduce en la incapacidad de proporcionar resultados eficientes a partir de los modelos, resultados o rendimientos plausibles e inversiones.

La industria petrolera (petróleo y gas) se divide en upstream, midstream y downstream. El upstream resume la parte del subsuelo (minería) de la industria, incluida la exploración seguida del desarrollo del yacimiento y la producción del crudo/gas. Midstream representa el transporte del petróleo y el gas, y downstream es la refinería, es decir, la producción de combustibles, lubricantes, plásticos y otros productos.  Las soluciones de artificial intelligence AI ya se aplican y sus resultados. 

Durante el curso se explica el uso del machine learning a problemas de procesamiento e interpretación sísmica. Utilizando datos sísmicos disponibles, implementamos la interpretación automatizada de sales. También se abordan brevemente estrategias para resolver otros problemas de interpretación sísmica.

En el curso se explican algunos aspectos importantes de la aplicación de algoritmos de aprendizaje profundo a las imágenes sísmicas. Y se explica la elección del tamaño de las imágenes y pre-procesamiento de las imágenes.

En el curso se exponen  los problemas relacionados con el modelado geológico, incluyendo el aprendizaje automático supervisado para la estimación de las propiedades petrofísicas lejos de las localizaciones de los pozos.

Se aborda un módulo de geomodelización. El geomodelado se lleva a cabo tras comprender el marco estructural del yacimiento a partir de la información extraída durante la interpretación sísmica. El aprendizaje automático puede ayudarnos a estimar los valores de las propiedades petrofísicas en una malla tridimensional. Los variogramas son la base de casi todas las técnicas de modelización espacial 3D de relevancia industrial. El curso emplea el modelo de regresión de procesos gaussiando, dentro de la llamada inteligencia artificial probabilística, para la geomodelización.

Se explica en los enfoques para el desarrollo de modelos de aprendizaje automático en el análisis de curvas de declive y el uso de estos modelos de forecasting de la producción del petroleo. Se exponen modelos avanzados de forecasting de machine learning, tales como la redes neuronales recurrentes, Long Short Term Memory, machine learning bayesiano, algoritmos genéticos y modelos avanzados tipo ensamble learning.

Se expone la modelización de la producción mediante metodologías de aprendizaje automático, incluida la optimización de la producción. Se explica una metodología para la medición virtual y la formulación de sensores virtuales.

QUANTUM COMPUTING

El Aprendizaje Automático Cuántico es la integración de algoritmos cuánticos dentro de programas de Aprendizaje Automático. Los algoritmos de aprendizaje automático se utilizan para calcular grandes cantidades de datos, el aprendizaje automático cuántico utiliza qubits y operaciones cuánticas o sistemas cuánticos especializados para mejorar la velocidad de cálculo y almacenamiento de datos que realizan los algoritmos de un programa. Por ejemplo, algunas técnicas matemáticas y numéricas de la física cuántica son aplicables al aprendizaje profundo clásico. Una red neuronal cuántica tiene capacidades computacionales para disminuir el número de pasos, los qubits utilizados y el tiempo de computación.

El objetivo importante del curso es mostrar el uso de la computación cuántica y las redes tensoriales para mejorar el cálculo de algoritmos de aprendizaje automático.

Además, en el curso se explica la computación cuántica, los circuitos cuánticos, importantes algoritmos cuánticos, la mecánica cuántica, el error y la corrección cuánticos, y el aprendizaje automático cuántico.

En el curso se explican aplicaciones de computación cuántica, tales como el Quantum Machine Learning, en modelos de forecasting de producción de petroleo. Se expone la mejora de los modelos cuánticos sobre los modelos tradicionales de ML, por ejemplo las redes neuronales LSTM frente a las redes neuronales cuánticas LSTM. 

IMPORTANTE

La necesidad de aplicar correctamente la inteligencia artificial tradicional y cuántica en la industria del petroleo y gas, nos ha obligado a incluir un modulo muy avanzado de validación y potentes técnicas de riesgo de modelo así como metodologías probabilísticas de machine learning con la finalidad de conocer la incertidumbre que hay en los resultados. Además hemos incluido un módulo del llamado XAI para evitar que los modelos sean cajas negras y sean interpretables.

 

¿QUIÉN DEBE ASISTIR?

 

El Curso está dirigido a profesionales de la industria petrolera y gas interesados en desarrollar potentes de de modelos de inteligencia artificial y computación cuántica aplicados al upstream.

 

Para una mejor comprensión de los temas es necesario que el participante tenga conocimientos de estadística y matemáticas.​

 

oil-platform.jpg
Time.png

Schedules:

  • Europe: Mon-Fri, CEST 16-19 h

 

  • America: Mon-Fri, CDT 18-21 h

  • Asia: Mon-Fri, IST 18-21 h

 

 

 

 

Price.png

Price: 7.900 €

 

Level.png

Level: Advanced

Duration.png

Duration: 36 h

 

Material.png

     Material: 

  • Presentations PDF

  • Exercises in Excel, R, Python, Jupyterlab y Tensorflow

fondo-azul-degradado-lujo-abstracto-azul-oscuro-liso-banner-estudio-vineta-negra.jpg

AGENDA
 AI and Quantum Computing in

Oil and Gas Upstream

 

Anchor 10

Machine Learning

Module 1: Machine Learning

 

  • Definition of Machine Learning

  • Machine Learning Methodology

    • Data Storage

    • Abstraction

    • Generalization

    • Assessment

  • Supervised Learning

  • Unsupervised Learning

  • Reinforcement Learning

  • deep learning

  • Typology of Machine Learning algorithms

  • Steps to Implement an Algorithm

    • information collection

    • Exploratory Analysis

    • Model Training

    • Model Evaluation

    • Model improvements

    • Machine Learning in consumer credit risk

  • Machine Learning in credit scoring models

  • Quantum Machine Learning

Module 2: EDA Exploratory Analysis

  • Data typology

  • transactional data

  • Unstructured data embedded in text documents

  • Social Media Data

  • data sources

  • Data review

  • Target definition

  • Time horizon of the target variable

  • Sampling

    • Random Sampling

    • Stratified Sampling

    • Rebalanced Sampling

  • Exploratory Analysis:

    • histograms

    • Q Q Plot

    • Moment analysis

    • boxplot

  • Treatment of Missing values

    • Multivariate Imputation Model

  • Advanced Outlier detection and treatment techniques

    • Univariate technique: winsorized and trimming

    • Multivariate Technique: Mahalanobis Distance

  • ​Exercise 1: EDA Exploratory Analysis

Module 3: Feature Engineering

  • Data Standardization

  • Variable categorization

    • Equal Interval Binning

    • Equal Frequency Binning

    • Chi-Square Test

  • binary coding

  • Binning

    • Kind of transformation

    • Univariate Analysis with Target variable

    • Variable Selection

    • Treatment of Continuous Variables

    • Treatment of Categorical Variables

    • Gini

    • Information Value

    • Optimization of continuous variables

    • Optimization of categorical variables

  • Exercise 2: Detection and treatment of Advanced Outliers

  • Exercise 3: Stratified and Random Sampling in R

  • Exercise 4: Multivariate imputation model

  • Exercise 5: Univariate analysis in percentiles in R

  • Exercise 6: Continuous variable optimal univariate analysis in Excel

  • Exercise 7: Estimation of the KS, Gini and IV of each variable in Excel

  • Exercise 8: Feature Engineering of variables

Unsupervised Learning

Module 4: Unsupervised models

  • Hierarchical Clusters

  • K Means

  • standard algorithm

  • Euclidean distance

  • Principal Component Analysis (PCA)

  • Advanced PCA Visualization

  • Eigenvectors and Eigenvalues

  • Exercise 9: Segmentation of the data with K-Means R

 

Supervised Learning

Module 5: Logistic Regression and LASSO Regression

 

  • Econometric Models

    • Logit regression

    • probit regression

    • Piecewise Regression

    • survival models

  • Machine Learning Models

    • Lasso Regression

    • Ridge Regression

  • Model Risk in Logistic Regression

  • Exercise 10: Lasso Logistic Regression in R

  • Exercise 11: Ridge Regression in R

Module 6: Trees, KNN and Naive Bayes

 

  • Decision Trees

    • modeling

    • Advantages and disadvantages

    • Recursion and Partitioning Processes

    • Recursive partitioning tree

    • Pruning Decision tree

    • Conditional inference tree

    • tree display

    • Measurement of decision tree prediction

    • CHAID model

    • Model C5.0

  • K-Nearest Neighbors KNN

    • modeling

    • Advantages and disadvantages

    • Euclidean distance

    • Distance Manhattan

    • K value selection

  • Probabilistic Model: Naive Bayes

    • Naive bayes

    • Bayes' theorem

    • Laplace estimator

    • Classification with Naive Bayes

    • Advantages and disadvantages

  • Exercise 12: KNN and PCA

Module 7: Support Vector Machine SVM

  • Support Vector Classification

  • Support Vector Regression

  • optimal hyperplane

  • Support Vectors

  • add costs

  • Advantages and disadvantages

  • SVM visualization

  • Tuning SVM

  • kernel trick

  • Exercise 14: Support Vector Machine in R

Module 8: Ensemble Learning

  • Classification and regression ensemble models

  • bagging

  • bagging trees

  • Random Forest

  • Boosting

  • adaboost

  • Gradient Boosting Trees

  • xgboost

  • Advantages and disadvantages

  • Exercise 15:  Boosting in R

  • Exercise 16: Bagging in R

  • Exercise 17: Random Forest, R and Python

  • Exercise 18:  Gradient Boosting Trees

Deep Learning

Module 9: Introduction to Deep Learning

  • Definition and concept of deep learning

  • Why now the use of deep learning?

  • Neural network architectures

  • feedforward network

  • R deep learning

  • Python deep learning

  • Convolutional Neural Networks

  • Use of deep learning in image classification

  • cost function

  • Gradient descending optimization

  • Use of deep learning

    • How many hidden layers?

    • How many neurons, 100, 1000?

    • How many times and size of the batch size?

    • What is the best activation function?

  • Hardware, CPU, GPU and cloud environments

  • Advantages and disadvantages of deep learning

 

Module 10: Deep Learning Feed Forward Neural Networks

  • Single Layer Perceptron

  • Multiple Layer Perceptron

  • Neural network architectures

  • activation function

    • sigmoidal

    • Rectified linear unit (Relu)

    • The U

    • Selu

    • hyperbolic hypertangent

    • Softmax

    • other

  • Back propagation

    • Directional derivatives

    • gradients

    • Jacobians

    • Chain rule

    • Optimization and local and global minima

  • Exercise 19: Deep Learning Feed Forward

Module 11: Deep Learning Convolutional Neural Networks CNN

  • CNN for pictures

  • Design and architectures

  • convolution operation

  • descending gradient

  • filters

  • strider

  • padding

  • Subsampling

  • pooling

  • fully connected

  • Exercise 20: deep learning CNN

Module 12: Deep Learning Recurrent Neural Networks RNN

  • Natural Language Processing

  • Natural Language Processing (NLP) text classification

  • Long Term Short Term Memory (LSTM)

  • Hopfield

  • Bidirectional associative memory

  • descending gradient

  • Global optimization methods

  • One-way and two-way models

  • Deep Bidirectional Transformers for Language Understanding ​

  • Exercise 21: Deep Learning LSTM

Module 14: Generative Adversarial Networks (GANs)

 

  • Generative Adversarial Networks (GANs)

  • Fundamental components of the GANs

  • GAN architectures

  • Bidirectional GAN

  • Training generative models

  • Exercise 22: Deep Learning GANs

Module 15: Tuning Hyperparameters

  • Hyperparameterization

  • Grid search

  • Random search

  • Bayesian Optimization

  • Train test split ratio

  • Learning rate in optimization algorithms (e.g. gradient descent)

  • Selection of optimization algorithm (e.g., gradient descent, stochastic gradient descent, or Adam optimizer)

  • Activation function selection in a (nn) layer neural network (e.g. Sigmoid, ReLU, Tanh)

  • Selection of loss, cost and custom function

  • Number of hidden layers in an NN

  • Number of activation units in each layer

  • The drop-out rate in nn (dropout probability)

  • Number of iterations (epochs) in training a nn

  • Number of clusters in a clustering task

  • Kernel or filter size in convolutional layers

  • Pooling size

  • Batch size

  • Exercise 23: Optimization Xboosting, Random forest and SVM

  • Exercise 24: Optimized Deep Learning

Probabilistic Machine Learning 

 

Module 16: Probabilistic Machine Learning

​​

  • Introduction to probabilistic machine learning

  • Gaussian models

  • Bayesian Statistics

  • Bayesian logistic regression

  • Kernel family

  • Gaussian processes

    • Gaussian processes for regression

  • Hidden Markov Model

  • Markov chain Monte Carlo (MCMC)

    • Metropolis Hastings algorithm

  • Machine Learning Probabilistic Model

  • Bayesian Boosting

  • Bayesian Neural Networks

  • Exercise 25: Gaussian process for regression

  • Exercise 26: Bayesian Neural Networks

Model Validation

Module 17: Validation of traditional and Machine Learning models

  • Model validation

  • Validation of machine learning models

  • Regulatory validation of machine learning models in Europe

  • Out of Sample and Out of time validation

  • Checking p-values in regressions

  • R squared, MSE, MAD

  • Waste diagnosis

  • Goodness of Fit Test

  • multicollinearity

  • Binary case confusion matrix

  • K-Fold Cross Validation

  • Diagnostico del modelo

  • Exercise 27: Validación avanzada de la regression

  • Exercise 28: Diagnostico de la regresión

  • Exercise 29: K-Fold Cross Validation in R

Module 18: Validación Avanzada de modelos de AI

 

  • Integración de métodos de última generación en aprendizaje automático interpretable y diagnóstico de modelos.

  • Data Pipeline

  • Feature Selection

  • Black-box Models

  • Post-hoc Explainability

  •  Global Explainability

  • Local Explainability

  • Interpretabilidad de Modelos

  • Diagnóstico: Accuracy, WeakSpotOverfitReliability, Robustness, Resilience, Fairness

  • Comparativo de modelos

    • Comparativo para la Regresión y Clasificación

    • Fairness Comparison

  • Ejercicio 30: Validación y diagnóstico de modelos avanzados de credit scoring

Auto Machine Learning and XAI

Module 19: Automation of ML

 

  • What is modeling automation?

  • that is automated

  • Automation of machine learning processes

  • Optimizers and Evaluators

  • Modeling Automation Workflow Components

  • Hyperparameter optimization

  • Global evaluation of modeling automation

  • Implementation of modeling automation in banking

  • Technological requirements

  • available tools

  • Benefits and possible ROI estimation

  • Main Issues

  • Genetic algorithms

  • Exercise 31: Automation of the modeling, optimization and validation of pricing models

Explainable Artificial Intelligence

Module 20: Explainable Artificial Intelligence XAI

 

  • interpretability problem

  • Machine learning models

    • 1. The challenge of interpreting the results,

    • 2. The challenge of ensuring that management functions adequately understand the models, and

    • 3. The challenge of justifying the results to supervisors

  • ​Black Box Models vs. Transparent and Interpretable Algorithms

  • interpretability tools

  • Shap, Shapley Additive explanations

    • Global Explanations

    • Dependency Plot

    • Decision Plot

    • Local Explanations Waterfall Plot

  • Lime, agnostic explanations of the local interpretable model

  • Explainer Dashboard

  • Other advanced tools

  • Exercise 32: XAI interpretability of pricing

Quantum Computing

Module 21: Quantum computing and algorithms

  ​

Objective: Quantum computing applies quantum mechanical phenomena. On a small scale, physical matter exhibits properties of both particles and waves, and quantum computing takes advantage of this behavior using specialized hardware. The basic unit of information in quantum computing is the qubit, similar to the bit in traditional digital electronics. Unlike a classical bit, a qubit can exist in a superposition of its two "basic" states, meaning that it is in both states simultaneously.

  • Future of quantum computing in insurance

  • Is it necessary to know quantum mechanics?

  • QIS Hardware and Apps

  • quantum operations

  • Qubit representation

  • Measurement

  • Overlap

  • matrix multiplication

  • Qubit operations

  • Multiple Quantum Circuits

  • Entanglement

  • Deutsch Algorithm

  • Quantum Fourier transform and search algorithms

  • Hybrid quantum-classical algorithms

  • Quantum annealing, simulation and optimization of algorithms

  • Quantum machine learning algorithms

  • Exercise 33: Quantum operations multi-exercises

Module 22: Introduction to quantum mechanics

  • Quantum mechanical theory

  • wave function

  • Schrodinger's equation

  • statistical interpretation

  • Probability

  • Standardization

  • Impulse

  • The uncertainty principle

  • Mathematical Tools of Quantum Mechanics

  • Hilbert space and wave functions

  • The linear vector space

  • Hilbert's space

  • Dimension and bases of a Vector Space

  • Integrable square functions: wave functions

  • Dirac notation

  • operators

  • General definitions

  • hermitian adjunct

  • projection operators

  • commutator algebra

  • Uncertainty relationship between two operators

  • Operator Functions

  • Inverse and Unitary Operators

  • Eigenvalues and Eigenvectors of an operator

  • Infinitesimal and finite unit transformations

  • Matrices and Wave Mechanics

  • matrix mechanics

  • Wave Mechanics

  • Exercise 34: Quantum mechanics multi-exercises

Module 23: Introduction to quantum error correction

  • Error correction

  • From reversible classical error correction to simple quantum error correction

  • The quantum error correction criterion

  • The distance of a quantum error correction code

  • Content of the quantum error correction criterion and the quantum Hamming bound criterion

  • Digitization of quantum noise

  • Classic linear codes

  • Calderbank, Shor and Steane codes

  • Stabilizer Quantum Error Correction Codes

  • Exercise 35: Noise Model, Repetition Code and quantum circuit

​Module 24: Quantum Computing II

 

  • Quantum programming

  • Solution Providers

    • IBM Quantum Qiskit

    • Amazon Braket

    • PennyLane

    • cirq

    • Quantum Development Kit (QDK)

    • Quantum clouds

    • Microsoft Quantum

    • Qiskit

  • Main Algorithms

    • Grover's algorithm

    • Deutsch–Jozsa algorithm

    • Fourier transform algorithm

    • Shor's algorithm

  • Quantum annealers

  • D-Wave implementation

  • Qiskit Implementation

  • Exercise 36: Quantum Circuits, Grover Algorithm Simulation, Fourier Transform and Shor

Module 25: Quantum Machine Learning

  • Quantum Machine Learning

  • hybrid models

  • Quantum Principal Component Analysis

  • Q means vs. K means

  • Variational Quantum Classifiers

  • Variational quantum classifiers

  • Quantum Neural Network

    • Quantum Convolutional Neural Network

    • Quantum Long Short Memory LSTM

  • Quantum Support Vector Machine (QSVC)

  • Exercise 37: Quantum Support Vector Machine

 

Module 26: Tensor Networks for Machine Learning

 

  • What are tensor networks?

  • Quantum Entanglement

  • Tensor networks in machine learning

  • Tensor networks in unsupervised models

  • Tensor networks in SVM

  • Tensor networks in NN

  • NN tensioning

  • Application of tensor networks in credit scoring models

  • Exercise 38: Neural Network using tensor networks

 

Modelos de Petroleo y Gas Upstream

Module 27: Geofísica y procesamiento e interpretación de datos sísmicos usando AI y Quantum AI 

Una de las tareas más cruciales en la obtención de imágenes de reflexión sísmica es identificar los cuerpos salinos con

con gran precisión. Tradicionalmente, esto se logra mediante la selección visual de los límites entre la sal y el sedimento, lo que requiere una gran cantidad de trabajo manual y puede introducir un sesgo sistemático. Con el reciente progreso de los algoritmos de aprendizaje profundo y la creciente potencia computacional, se han realizado grandes esfuerzos para sustituir el esfuerzo humano por la potencia de la máquina en la interpretación de los cuerpos salinos.

 las redes neuronales convolucionales (CNN) está revolucionando el campo de la visión por ordenador y la clasificación basada en CNN se demuestra utilizando una estructura de red U-Net de última generación, junto con el marco de aprendizaje residual ResNet, para delinear el cuerpo de sal con alta precisión.

  • Experimento de reflexión sísmica

  • Problema inverso: creación de imágenes y modelos de velocidad

  • Ecuación de la onda acústica

  • El proceso de estimación de la velocidad, y la formación de imágenes de dispersores en el subsuelo

  • Interpretación salina con aprendizaje automático

  • U-Net para la segmentación semántica

  • Función de pérdida para U-Net

  • K-Fold estratificado

  • Resultados de la interpretación

  • Clasificación de imagenes en Real Estate

    • Problem Statement

    • Deep Learning Problem Formulation

    • Project and Data Source

    • Image Dataset

    • Evaluation Metric

    • Exploratory Data Analysis

    • Image Preprocessing

    • Model Training

    • Productionizing

  • Image Classification: Data-driven Approach

  • Convolutional Neural Networks

  • Data and the Loss preprocessing,

  • Hyperparameters

  • Train/val/test splits

  • L1/L2 distances

  • Hyperparameter search

    • Optimization: Stochastic Gradient Descent

    • Optimization landscapes

    • Black Box Landscapes

    • Local search

    • Learning rate

  • Weight initialization,

  • Batch normalization

  • Regularization (L2/dropout)

  • Loss functions

  • Gradient checks

  • Sanity checks

  • Hyperparameter optimization

  •  Architectures

    • Convolution / Pooling Layers

    • Spatial arrangement,

    • Layer patterns,

    • Layer sizing patterns,

    • AlexNet/ZFNet/Densenet/VGGNet/U-Net/Resnet

  • Convolutional Neural Networks tSNE embeddings

  • Deconvnets

  • Data gradients

  • Fooling ConvNets  

  • Human comparisons Transfer Learning and

  • Fine-tuning Convolutional Neural Networks

  • Performance Metrics

    • Accuracy

    • F1-Score

    • AUC-ROC

    • Cohen Kappa Coefficient

  • Exercise 29: Arquitectura basada en CNN profunda para la interpretación automática de cuerpos salinos de datos sísmicos

Module 28: Ingenieria de produccion usando Machile Learning

La ingeniería de producción abarca diversas actividades, como medir, analizar, modelar, priorizar y ejecutar acciones para mejorar la productividad y la rentabilidad. Los ingenieros de producción consideran en general múltiples opciones para mejorar las condiciones del sistema de producción desde el punto de vista técnico, económico y medioambiental. Con la introducción del ML en la industria del petróleo y el gas, se han publicado numerosas aplicaciones para ayudar en la investigación de la identificación del estado del flujo, la medición del rendimiento y la identificación de problemas y limitaciones de la capacidad de producción. 

  • Ingeniería de producción

  • Predicción de la tasa potencial del pozo 

  • Aumento del conocimiento del pozo con sensores virtuales 

  • Medición virtual de tasas 

  • Predicción de tasas de pozos a partir de mediciones indirectas  

  • Predicción de tasas de pozo para pozos de gas-lift  

  • Predicción de fallos en pozos 

  • Ingeniería de características de datos

  • Análisis de causa raíz (ACR) 

  • Acciones para mejorar el rendimiento  

  • Predicción del mal rendimiento de los pozos

  • Gestión del corte de agua en función de la velocidad  

  • Predicción de la tasa crítica de petróleo 

  • Espaciamiento óptimo de pozos en yacimientos naturalmente fracturados NFRs

  • Predicción del radio umbral del yacimiento

  • Ejercicio 40: Modelo de Tasa Crítica de Petróleo usando regresión lineal, random forest regression y redes neuronales cuánticas 

  • Ejercicio 41: Modelo de redes neuronales  clásica y redes neuronales cuánticas de Tasa y Presión de Pozo

  • Ejercicio 42: Agrupación de fallas de pozos usando K-Means 

  • Ejercicio 43: Modelo de Tasa de Pozo del random forest y Gradient Boosting Machines

 

AI y computación cuántica para Ingenieria de Yacimientos

Module 29: Aprendizaje automático en ingeniería de yacimientos

La ingeniería de yacimientos es un campo interdisciplinar que integra la mecánica, la geología, la física, las matemáticas y la informática como herramientas de investigación para recuperar económicamente los recursos de hidrocarburos en formaciones subterráneas. 

Con la mejora de la arquitectura informática, el ML también puede extraer de forma eficiente información no derivada de la explosión de datos del mundo real recopilados en aplicaciones de la industria petrolera. Como potente técnica basada en datos, el ML está siendo ampliamente aceptado para ayudar y mejorar nuestra comprensión de las áreas de perforación, producción y yacimientos. En particular, el ML ha sido ampliamente utilizado en la ingeniería de yacimientos y ha logrado excelentes resultados, como la predicción de la permeabilidad, la porosidad y la tortuosidad, la predicción de la producción de gas de esquisto, la caracterización de yacimientos, la reconstrucción de núcleos digitales en 3D, la interpretación de pruebas de pozos, la optimización rápida de la producción de gas de esquisto, el procesamiento de registros de pozos y la correspondencia histórica.

​​

  • XGBoost para la previsión de la producción acumulada

  • Random Forest para la identificación de patrones de invasión de agua; estimación de propiedades

  • SVM para predicción de tasas de petróleo en superficie; estimación de permeabilidad

  • Gaussian Regression Process para la producción temprana de petróleo y gas

  • ARIMA para dinámica de producción

  • LSTM para dinámica de producción; identificación de modelos de yacimiento

  • CNN para interpretación de pruebas de pozos y dinámica de la producción

  • Exercise 44: Previsión de las futuras tasas de producción de un pozo de petróleo usando Decline Curve Analysis

  • Exercise 45: Previsión de futuras tasas de producción de un pozo de petróleo usando ARIMA

  • Exercise 46: Dinámica de producción de un pozo de petróleo usando LSTM 

  • Exercise 47: Dinámica de producción de un pozo de petróleo usando Bayesian LSTM 

Module 30: Modelos  Avanzados de Forecasting de la Producción de Petróleo con Datos Multivariantes

La previsión precisa de la producción de los pozos es crucial para que los ingenieros petroleros identifiquen descensos rápidos en la producción de petróleo y seleccionen los mecanismos de recuperación adecuados. También ayuda a estimar la recuperación final y la vida útil del pozo, lo que conduce a un desarrollo sostenible y a equilibrar las entradas y salidas económicas. Sin embargo, predecir la producción de petróleo con precisión puede ser un reto debido a la complejidad de las condiciones del subsuelo. Las propiedades heterogéneas de la formación, el flujo de fluidos multifásicos, las condiciones inciertas del subsuelo y las frecuentes operaciones in situ pueden afectar significativamente a la producción, lo que hace que los modelos de forecasting sean más complejos. Por lo anterior se presentan modelos avanzados de forecasting.

  • El modelo de previsión de la producción de petróleo

  • Análisis de datos multivariantes

  •  importación de los datos brutos

  •  previsión del volumen de petróleo

  • la evaluación del rendimiento predictivo del modelo

  • comparación con los modelos de referencia.

  • Modelos Avanzados

  • TCN-Temporal Convolutional Networks

  • LSTM-Long Short Term Memory

  • RNN-Recurrent Neural Network

  • GRU-Gated recurrent units 

  • QLSTM-Quantum Long Short Memory

  • Modelo Avanzado con algoritmo genéticos 

  • Exercise 48: LSTM-Long Short Term Memory de forecasting de producción de petroleo 

  • Exercise 49: GRU-Gated recurrent units de forecasting de producción de petroleo 

  • Exercise 50: Quantum Long Short Term Memory de forecasting de producción de petroleo 

  • Exercise 51: TCN-Temporal Convolutional Networks de forecasting de producción de petroleo 

  • Exercise 52: Modelo de algoritmos genéticos de forecasting de producción de petroleo 

Probabilistic Machine Learning for Oil and Gas

Module 31: Geomodelización usado Regresión de procesos gaussianos

La geomodelización es un paso importante en el proceso de exploración y planificación de la producción. El geomodelado se lleva a cabo tras comprender el marco estructural del yacimiento a partir de la información extraída durante la interpretación sísmica. El aprendizaje automático puede ayudarnos a estimar los valores de las propiedades petrofísicas en una malla tridimensional. Los variogramas son la base de casi todas las técnicas de modelización espacial 3D de relevancia industrial. 

  • Variograma 

  • Descripción de datos 

  • Análisis básico de datos de registros de pozos

  • Regresión de procesos gaussianos

  • Formulación  

  •  Núcleo de función de base radial (RBF)

  • Exercise 53: Geomodelización usando la regresión de procesos gaussianos

bottom of page