Participa y Conéctate Gratuitamente en el Mejor Webinar de Big Data Analytics para Banca del 2016:
>+15 Speakers
> Speakers de +10 paises de Europa y América
>+15 Horas de Conferencias
> Empresas líderes del Big Data Analytics: Oracle, Accenture, SAS, AIS, Mathworks, Information Builders, Club de Riesgos de España, Big Data Scoring, Deloitte Chile, Innova TSN, Fermac Risk,Lisim...
>+1.500 profesionistas de entidades financieras de Europa y América Latina
>Big Data Analytics, Customer Analytics, Riesgo Crédito, Stress Testing, IFRS 9,...
Nuestros Speakers:
Expertos Internacionales de primer nivel, CEOs, Directivos de Riesgo de Banca, Directivos de Customer Analytics,Data Scientist, Analytic Software, Riesgos Financieros, Business Intelligence, Big Data Analytics.
Empresas Expositoras:
Temas Principales:
> Big Data Credit Scoring
> Segmentación de Clientes en Banca
> Analytical Models
> Marketing Analytics
> Gestión del Riesgo Crédito
> IFRS 9: Modelización del Riesgo Crédito
> Analytics Dashboard
> Trading Algoritmico y High Frecuency
> Stress Testing Riesgo Crédito
> Ciencia de Datos en Banca
> Customer Analytics
> Machine Learning
> Forecasting de la PD
> PD Lifetime
> Credit Scoring
> Web Analytics
> Big Data Analytics
> Mapas Mentales en Big Data
BIG DATA ANALYTICS
El Big Data ha irrumpido en todas las industrias incluyendo el sector bancario. La digitalización de la banca es un fenómeno inevitable en todo el mundo y los desafíos de este sector son muy importantes, desde adaptar las nuevas tecnologías y esperar la llegada intempestiva de los nuevos competidores o aliados llamados Fintech. El gran volumen de datos generado por transacciones e información de las redes sociales ayudarán a los bancos a ofrecer productos y servicios personalizados al Cliente.
RIESGOS FINANCIEROS
La gestión de los riesgos financieros también atraviesa cambios importantes, no solo en el ámbito regulatorio por la estandarización de los modelos y eliminación de de modelos internos, sino también por la previsible automatización de procesos de admisión de crédito, la complejidad de las pruebas de stress testing y los requerimientos del IFRS 9.
Jueves 9 de Junio
08:15-23:15 Horario España
01:15-16:15 Horario de Ecuador, Perú, México, Costa Rica
02:15-17:15 Horario Chile
03:15-18:15 Horario Buenos Aires
Hora GMT-5
AGENDA
-
01:15 - 01:30 h Introducción y presentación de la conferencia por Fernando Gonzalez, Socio Fermac Risk
-
01:30 - 02:15 h How big data helps make better credit decisions por Erki Kert CEO de bigdatascoring.com
Erki Kert, the CEO of Big Data Scoring will show based on real life examples how big data help banks issue more loans while at the same time also better manage credit quality. The use of big data in a bank’s credit scoring process opens up completely new client segments for banks (such as young people, immigrants and other thin file customers) and helps lenders operate on emerging markets.
-
02:15 - 03:00 h Rocking Analytics in a Data Flooded world por Bart Baesens Professor
Companies are being flooded with tsunamis of data collected in a multichannel business environment, leaving an untapped potential for analytics to better understand, manage and strategically exploit the complex dynamics of customer behavior. In this presentation, we will start by providing a bird’s eye overview of the analytics process model and then illustrate how to fully unleash its power in some example settings. We will review data as the key ingredient of any analytical model and discuss how to measure its quality. We will zoom into the key requirements of good analytical models (e.g. statistical validity, interpretability, operational efficiency, regulatory compliance etc.) and discuss emerging applications. Throughout the presentation, the speaker will extensively report upon his research and industry experience in the field.
-
03:00 - 03:45 h Information Builders por Juan Antonio Molina, de Information Builders España
-
03:45 - 04:30 h Big Data Analytics en Banca por Guillaume Leorat de Accenture Digital España
-
04:30 - 05:15 h Visualización de información de Big Data mediante la técnica de mapas mentales por José María Guerrero Franco Managing Director , de Infoseg
Al analizar Big Data, la visualización de los resultados es la clave. Sin embargo, los sistemas tradicionales de visualización presentan serios inconvenientes. Estos sistemas se basan normalmente en el contenido lineal y en los hiperenlaces. El texto lineal presenta los siguientes problemas: no ofrece un sentido de perspectiva o estructura, no muestra la relación entre las partes, mo permite disponer de una “visión global”. Como consecuencia, es difícil de comprender y es imposible usarlo para colaborar varias personas.Por otra parte, los hiperenlaces usados tanto en las páginas web como en el software tradicional presenta los mismos problemas del contenido lineal más la desorientación propia de los cambios de página.La técnica de los mapas mentales ofrece una solución eficaz a estos problemas y permite obtener la visión global necesaria en cualquier proceso de toma de decisiones. Un mapa mental digital es un diagrama jerárquico que contiene texto, notas, iconos, imágenes, relaciones visuales, llamadas, enlaces a páginas web y ficheros adjuntos multimedia. Todo este contenido se agrupa en un solo fichero comprimido que puede ser fácilmente enviado como adjunto a un mensaje de correo electrónico o subido a la nube mediante FTP. Los últimos avances informáticos en esta técnica permiten la creación automática de mapas mentales a partir de información contenida en bases de datos, ficheros de texto y páginas web.
-
05:15 - 06:00 h Claves de la gestión del riesgo en un entorno post-crisis por Juan Carlos Estepa Director de Bankia y Presidente del Club de Riesgos de España
-
06:00 - 06:45 h Aplicaciones Reales de Big Data para la Banca por Alicia Sánchez, Consultora Jefe de Proyecto, de AIS
Analizaremos cómo el Big Data puede aplicarse en términos de negocio en tanto en gestión del riesgo de crédito (IFRS9 y sistemas de alertas tempranas), así como en gestión de activos inmobiliarios (AVM) y en marketing financiero (modelos de propensión de compra, venta cruzada o valor de cliente).
-
08:00 - 08:45 h Advanced Analytics” en la era del big data por Javier Monjas, de Innova TSN
La analítica y el auge de las nuevas tecnologías permite a las empresas utilizar nuevos enfoques de Marketing. En esta ponencia se mostrará el proceso de evolución analítica que ha experimentado una entidad financiera para sacar todo el partido a Big Data.
-
08:45 - 09:30 h Credit Scoring usando machine learning por Fernando Gonzalez, Socio Fermac Risk
Compararemos las metodologías de credit scoring tradicionales frente a las técnicas de la ciencia de la computación llamadas machine learning o aprendizaje de las maquinas. Hablaremos de ventajas e inconvenientes de ambas metodologías en una entidad financiera y de la posible automatización del proceso de admisión/originación.
-
09:30 - 10:15 h Metodologías de Stress Testing en Riesgo Crediticio por Fernando Gonzalez, Socio Director de Fermac Risk
Explicaremos las principales metodologías de stress testing en riesgo crédito, incluyendo el UE-Wide Stress Testing, CCAR de USA y otras metodologías avanzadas. Analizaremos el impacto del stress testing en los RWAs, Capital y estados financieros de una entidad financiera.
-
10:15 - 11:00 h Riesgo Crediticio y Big Data con MATLAB por Gabriel Lopez Calva, PhD desarrollador Sr. de Mathworks
En esta plática comenzamos con una revisión a grandes rasgos de herramientas y tecnología que MATLAB y otros productos de MathWorks ofrecen en el área de Big Data. Posteriormente hacemos una revisión de algunas herramientas de interés en el área de riesgo de crédito. En la segunda mitad de la plática, presentamos en detalle un ejemplo de panel data con un portafolio de crédito de consumo. Visualizamos tasas de incumplimiento por año en libros y por grupo de calificación de crédito. Calibramos un modelo para pronosticar tasas de incumplimiento tomando en cuenta información macroeconómica, y usamos el modelo para hacer stress testing de las probabilidades de incumplimiento.
-
11:00 - 11:45 h Stress Testing Comprensivo para el Cumplimiento Regulatorio, Gestión de Riesgos y Planificación de Capital por David Pacheco, Head of Risk-Based Regulation & Research at Superintendencia de Bancos de Chile SBIF
En un entorno financiero y normativo cada vez más dinámico y complejo, los programas de stress testing resultan de vital importancia para gestionar niveles de rentabilidad sustentables, una adecuada planificación de capital y un destacado cumplimiento regulatorio. Consecuentemente, los programas de stress testing han congregado alta relevancia durante los últimos años para las entidades financieras y sus stakeholders.En la desafiante tarea de diseñar o perfeccionar los programas internos de stress testing, el road-map debe organizarse estratégicamente y considerar una evaluación comprensiva de la práctica de gestión interna de la institución; así como de sus brechas en relación a las mejores prácticas de la industria y de los más recientes estándares regulatorios (Basilea III, DFAST, IFRS 9, normativa local, etc.). Discutiremos los conceptos y componentes fundamentales involucrados en el diseño y desarrollo de programas internos de stress testing, como requisito para la planificación de capital, cumplimiento regulatorio y una gestión integral y coherente de los riesgos de crédito, mercado, liquidez, operacional y tasa de interés en el libro de banca.
-
11:45 - 12:30 h Modelización de la PD en el enfoque IFRS 9 por Fernando Gonzalez, Socio Director de Fermac Risk
De cara a la implementación de la norma IFRS 9 que consiste en utilizar la Pérdida Esperada "lifetime", es decir, la pérdida a lo largo de toda la vida remante de una cartera,misma, que servirá para calcular provisiones por Riesgo de Crédito. Revisaremos las metodologías para estimar la PD Lifetime. Y la contrastaremos con la PD de los modelos A-IRB.
-
12:30 - 13:15 h Data and sense por Michael Ballestero, Managing Principal Consultant , de Data and sense
-
13:15 - 14:00 h Trading algorítmico y de alta frecuencia: Un asunto de oportunidades y riesgos por Luis Angel Barrientos Huesca, de SAS
Los intermediarios financieros han buscado alternativas para ser más innovadores y eficientes en su negocio. Trading algorítmico y de alta frecuencia se están convirtiendo en una respuesta para ello. La tecnología y los quants son columnas vertebrales para que este producto crezca vigorosamente. Sin embargo y a falta de historia sobre las implicaciones de este negocio, es necesario que el gremio procure medidas prudenciales mínimas de operación. Recordar que la falta de entendimiento y sensatez en la crisis del 2007, llevo a situaciones extremas a las finanzas de muchos. Esta transformación en la manera de operar tiene suficientes ventajas, como para ocuparse también, de los elementos de control mínimos necesarios para que sea afín a los objetivos del negocio y no sólo sea un asunto de suerte.
-
14:00 - 14:45 h Oracle LAD por Alberto Rivera Senior Sales Consultant , de Oracle
-
14:45 - 15:30 h Aplicación de Variables No Estructuradas y Redes Sociales en Credit Scoring por Lilian Simbaqueba , de Lisim Colombia
-
Con la dinámica del mercado y la tecnología es indispensable abrir opciones para analizar otro tipo de variables no convencionales con el objetivo de evaluar el comportamiento de los clientes. Es por esto que el análisis de nuevas variables juega un papel importante en el nuevo mundo de Big Data, observando nuevas tendencias y características que permitan identificar hábitos en los clientes y así aprovechar estos datos. En ésta sesión se discutirán perspectivas y avances en este nuevo mundo de información.
-
15:30 - 16:15 h Ciencia de Datos en segmentación de clientes ¿Cómo capitalizar el valor de los datos? por Liliana Millan Data Scientist Lead, de Globant
Los avances tecnológicos digitales permiten conocer el comportamiento que los clientes tienen a través de sus sitios/productos, ¿cómo aprovechar estos datos? En esta plática se presentará cómo la ciencia de datos habilita la personalización de productos, brinda soporte a decisiones ejecutivas, genera productos basados en datos y permite eficiencias operativas.