Aprendizaje automático y profundo en Python. Una mirada hacia la inteligencia artificial.
Language: esp Publication details: Madrid, España Ra-Ma 2022Description: 341 páginas; Figuras, tablas, fórmulasISBN:- 9788418971853
- 005.133 P649
Item type | Current library | Call number | Copy number | Status | Date due | Barcode | |
---|---|---|---|---|---|---|---|
Libros | CIBESPAM-MFL | 005.133 / P649 (Browse shelf(Opens below)) | Ej: 1 | Available | 006052 |
-Prólogo
-Introducción
--CAPÍTULO 1. Conceptos básicos de programación en Python 3.9
1.1 Entorno de desarrollo y primeros pasos
1.2 Variables, Tipos de datos y operadores
1.3 Estructuras de datos: Tuplas, listas y diccionarios
1.4 Estructuras selectivas
1.5 Estructuras repetitivas1.6 Funciones
1.7 Clases y objetos
--CAPÍTULO 2. Introducción al Aprendizaje Automático
2.1 ¿Qué es aprendizaje automático?
2.2 Conceptos de aprendizaje automático
2.3 Tipos de aprendizaje automático40
2.4 Problemas tipicos en aprendizaje automático
2.5 Metodología CRISP-DM
--CAPÍTULO 3. Herramientas para el aprendizaje automático
3.1 Manejo básico de datos con PANDAS
3.2 Manejo de arreglos con Numpy
3.2.1. Creación de arreglos
3.2.2. Acceso a elementos
3.2.3. Redimensionamiento
3.2.4. Operaciones matemáticas
3.3 Creando gráficos con Matplotlib
3.3.1 Gráficos de líneas
3.3.2 Gráficos de barras
3.3.3 Diagramas de dispersión
3.3.4. Histogramas
3.3.5. Diagrama de caja y bigotes
3.4 Breve Introducción a Scikit-Learn
--CAPÍTULO 4. Preprocesado de datos
4.1 ¿Que es el preprocesado de datos?
4.2 Creación de conjunto de entrenamiento y pruebas
4.3 Manejo de datos ausentes
4.4 Manejo de datos categóricos
4.5 Escalamiento de características
--CAPÍTULO 5. Modelos de regresión
5.1 Visualización de la relación entre características del conjunto de datos
5.2 Solución mediante el enfoque de mínimos cuadrados
5.3 Descenso del gradiente
5.4 Regresión lineal mediante scikit-learn
5.4.1. Regresión Simple
5.4.2 Regresión múltiple
5.5 Regresión con random sample consensus (RAMSAC)
5.6 Regresión lineal polinómica
5.7 Regresión lineal múltiple en notación matricial
5.8 Modelos no lineales
5.8.1 Funciones no lineales
5.8.2 Ejemplo suscripciones de telefonía
--CAPÍTULO 6. Regularización, métricas de evaluación y ajuste de hiperparámetros
6.1. Regularización
6.1.1 Regresión Rígida
6.1.2 Regresión Lasso
6.1.3 Red elástica
6.2. Métricas y técnicas de validación de modelos de regresión
6.2.1 Error absoluto medio (MAE)
6.2.2 Error cuadrático medio (MSE)
6.2.3 Coeficiente de determinación (R2)
6.2.4 Validación cruzada por k iteraciones
6.3. Curvas de aprendizaje y validación
6.4. Técnica de busqueda de cuadrículas par el ajuste de hiperparámetros
--CAPÍTULO 7. Modelos de Clasificación I
7.1 Perceptrón simple
7.2 Neurona lineal adaptativa (ADALINE)
7.3 Regresión logística
7.3.1 Regresión logística con scikit-learn
7.3.2 Regresión logística con el descenso del gradiente estocástico
7.3.3 Regresión logística con regularización
7.4. Métricas de evaluación
7.4.1. Matriz de confusión
7.4.2. Exactitud (Accuracy)
7.4.3. Precisión (Precision)
7.4.4. Recall, Sensibilidad o TPR (Tasa de verdadero positivo)
7.4.5. F1
7.4.6. Tasa de falsos positivos
7.4.7. Curvas ROC (receiver operating characteristics)
7.5 Máquinas de vectores de soporte (SVM)
7.5.1. Clasificación Multiclase con SVM lineal
7.5.2. Kernels para separar datos no lineales
--CAPÍTULO 8. Modelos de Clasificación II
8.1 Árboles de decisión
8.1.1. Métricas para medir la separación
8.1.2. Crear y visualizar árboles de decisión
8.1.3. Identificación de características importantes
8.2 Bosques aleatorios (Random Forest)
8.3 Adaboost (Adaptative boosting)
8.4 Gradient boosting
8.5 Naive bayes
8.6 K Vecinos mas cercanos (KNN)
8.7 Sistemas de recomendación
8.7.1. Sistemas de recomendación basados en contenido
8.7.2. Sistema de recomendación basado en filtro colaborativo?220
8.8 Entrenamiento mediante aprendizaje en línea
--CAPÍTULO 9. Clustering
9.1 K Medias
9.2 Clustering jerárquico
9.3 Dbscan (Density Based Spatial Clustering of Applications with Noise)
--CAPÍTULO 10. Reducción de la dimensionalidad
10.1 Análisis de componentes principales (PCA)
10.2 Análisis discriminante lineal (ADL)
--CAPÍTULO 11. Introducción a las redes neuronales
11.1 Conceptos básicos sobre redes neuronales
11.1.1. Neurona artificial
11.1.2. Red neuronal
11.1.3. Pesos
11.1.4. Sesgos (Bias)
11.1.5. Funciones de activación determina la salida de la neurona.
11.2 Entrenamiento de una red neuronal
11.3 Red neuronal para clasificación binaria
11.4 neuronal para clasificación múltiple
--CAPÍTULO 12. Redes neuronales convolucionales
12.1 Introducción a las redes neuronales convolucionales
12.1.1. Convolución
12.1.2. Agrupación
12.2 CNNs en Keras
12.3 Regularización y dropout
--CAPÍTULO 13. Aumento de datos y transferencia de aprendizaje
13.1 Generador de datos de imágenes
13.2 Aumento de datos (data augmentation)
13.3 Transferencia de aprendizaje (transfer learning)
13.3.1. Extracción de características
13.3.2. Ajuste fino (Fine tuning)
--CAPÍTULO 14. Introducción al Procesamiento del Lenguaje Natural (PNL)
14.1 Palabras embebidas (Word embedding)
14.2 Introducción a Word2Vec
14.3 Word2vec con librería Gensim
--CAPÍTULO 15. Redes neuronales recurrentes (RNN)
15.1 Introducción a las redes neuronales recurrentes
15.2 Propagación a través del tiempo (BPTTT)
15.3 LSTM (Memoria larga a corto plazo)
15.3.1. Ejemplo sobre análisis de sentimiento
15.3.2. Ejemplo sobre generación de texto
--Índice analítico
--Referencias bibliográficas
There are no comments on this title.