Quieres aprender las etapas del machine learning paso a paso con XGB??
En este maravilloso episodio, cubriremos un análisis completo paso a paso del aprendizaje automático para la regresión a través del regresor de gradiente extremo XGBoost usando el Real estate valuation con python JUPYTER NOTEBOOK. Haciendo uso de Pandas para la manipulación de datos, matplotlib para la creación de gráficos, sklearn para llamar a funciones de rendimiento y XGBoost para el regresor y creacion del modelo.
XGB regresion y feature engineering Video 2: https://youtu.be/mf19ZYxwsc8
- Los datos: dónde y cuál es el conjunto de datos
- ¿Análisis exploratorio? ¿Visualización?
- Selección de variables: elegir las variables a utilizar
- Imputar y valores perdidos
- Codificación de variables: variables ficticias, características categóricas y nominales
- Eliminar variables ( innecesarias ?)
- Dividir conjunto en entrenamiento y testing
- Árboles de decisión y potenciación, como funciona el extreme gradient boosting?
- Hiperparámetros y parámetros: tasa de aprendizaje, profundidad máxima, gpu_id,
número de estimadores
- Construyendo y ajustando el modelo
- Interpretación de la importancia de la variable
- Predicción de nuevos valores
- Medición del desempeño usando coeficiente de determinacion R2 y el mean squared error o error cuadratico medio MSE
- Sobreajuste (overfitting), desajuste y bajo ajuste del modelo, como saberlo?
- ¿Cómo mejorar el rendimiento? ¿Ingeniería de variables?
Feature Engineering en Video No.2: https://youtu.be/mf19ZYxwsc8
- Tratamiento de los valores extremos (outliers)
- Creacion o mejora de variables mediante Date y time
- Selección y eliminacion de variables: elegir las variables a utilizar
Video #3
Seleccion de variables con regresion y Recursive Feature elimination: https://youtu.be/hDRty77WZdk
#4 Ajuste de hiperparametros: https://youtu.be/CwhotsJW2PU
- Explicando los hiperparametros del XGB
* learning rate, max_depth, gamma, Regularization, alpha, child_weight,
number of estimators
- Aplicando Grid Search con gridSearchCV
- Ejecucion del mejor modelo segun parametros
Datos: https://archive.ics.uci.edu/ml/datasets/Real+estate+valuation+data+set
My code??? find it here: https://github.com/raulvalerio/supervised-learning-in-python
## XGB: Clasificacion paso a paso en Python: https://youtu.be/ZjfUzooCazI
XGBoost y Clasificacion Multi Clases Python | Aprendizaje supervisado | Analisis Datos Calidad Vino: https://youtu.be/LUf4GXaw1fk
## Machine learning en Python #Python #Regresion #XGBoost #Sklearn
https://www.youtube.com/watch?v=8M6f2OIXjDg&list=PL91sPCWWIYsgrYPSNl0WSs5URVOI3WIPR
## Machine learning en R
https://www.youtube.com/playlist?list=PL91sPCWWIYshhRyMHUjSHAg8U4aBMFwOf
Cualquier comentario o sugerencia es bienvenido.
Contacto: [email protected]
My youtube channel in English:
https://www.youtube.com/channel/UCfW4cZ2fO4NpRO_8hRxS6Rw/
## Algoritmo de Clustering HDBSCAN, Kmeans con R
https://youtu.be/WByEpA7mXxg
## Algoritmos de clustering jerarquicos en R
https://youtu.be/qrm8igxwHOQ
## Algoritmos de clustering jerarquicos en python
https://youtu.be/kIanGE8a98s
Algoritmo HDBSCAN: https://youtu.be/z7pz1DmCoHU
Algoritmo de K-means:
- Que es Kmeans y centroides: https://youtu.be/8K-UxMEWBfc
- Normalizacion y numero adecuado de clusters: https://youtu.be/NkQKNA6ykuk
- Metodo Elbow, Distorsion e Inercia: https://youtu.be/2-cdae6YnPs
## Aprendizaje automático
## Aprendizaje supervisado y no supervisado
## análisis estadístico
## Factores
## Independiente y dependiente
## entrada y salida
## Machine learning and supervised learning
## overfitting, hyperparameter, classifier, classification, matrix
## input and output, statistical analysis