Amazon cover image
Image from Amazon.com
Image from Google Jackets

Aprendizaje automático y profundo en Python. Una mirada hacia la inteligencia artificial.

By: Language: esp Publication details: Madrid, España Ra-Ma 2022Description: 341 páginas; Figuras, tablas, fórmulasISBN:
  • 9788418971853
Subject(s): DDC classification:
  • 005.133 P649
Contents:
-Prólogo -Introducción --CAPÍTULO 1. Conceptos básicos de programación en Python 3.9 1.1 Entorno de desarrollo y primeros pasos 1.2 Variables, Tipos de datos y operadores 1.3 Estructuras de datos: Tuplas, listas y diccionarios 1.4 Estructuras selectivas 1.5 Estructuras repetitivas1.6 Funciones 1.7 Clases y objetos --CAPÍTULO 2. Introducción al Aprendizaje Automático 2.1 ¿Qué es aprendizaje automático? 2.2 Conceptos de aprendizaje automático 2.3 Tipos de aprendizaje automático40 2.4 Problemas tipicos en aprendizaje automático 2.5 Metodología CRISP-DM --CAPÍTULO 3. Herramientas para el aprendizaje automático 3.1 Manejo básico de datos con PANDAS 3.2 Manejo de arreglos con Numpy 3.2.1. Creación de arreglos 3.2.2. Acceso a elementos 3.2.3. Redimensionamiento 3.2.4. Operaciones matemáticas 3.3 Creando gráficos con Matplotlib 3.3.1 Gráficos de líneas 3.3.2 Gráficos de barras 3.3.3 Diagramas de dispersión 3.3.4. Histogramas 3.3.5. Diagrama de caja y bigotes 3.4 Breve Introducción a Scikit-Learn --CAPÍTULO 4. Preprocesado de datos 4.1 ¿Que es el preprocesado de datos? 4.2 Creación de conjunto de entrenamiento y pruebas 4.3 Manejo de datos ausentes 4.4 Manejo de datos categóricos 4.5 Escalamiento de características --CAPÍTULO 5. Modelos de regresión 5.1 Visualización de la relación entre características del conjunto de datos 5.2 Solución mediante el enfoque de mínimos cuadrados 5.3 Descenso del gradiente 5.4 Regresión lineal mediante scikit-learn 5.4.1. Regresión Simple 5.4.2 Regresión múltiple 5.5 Regresión con random sample consensus (RAMSAC) 5.6 Regresión lineal polinómica 5.7 Regresión lineal múltiple en notación matricial 5.8 Modelos no lineales 5.8.1 Funciones no lineales 5.8.2 Ejemplo suscripciones de telefonía --CAPÍTULO 6. Regularización, métricas de evaluación y ajuste de hiperparámetros 6.1. Regularización 6.1.1 Regresión Rígida 6.1.2 Regresión Lasso 6.1.3 Red elástica 6.2. Métricas y técnicas de validación de modelos de regresión 6.2.1 Error absoluto medio (MAE) 6.2.2 Error cuadrático medio (MSE) 6.2.3 Coeficiente de determinación (R2) 6.2.4 Validación cruzada por k iteraciones 6.3. Curvas de aprendizaje y validación 6.4. Técnica de busqueda de cuadrículas par el ajuste de hiperparámetros --CAPÍTULO 7. Modelos de Clasificación I 7.1 Perceptrón simple 7.2 Neurona lineal adaptativa (ADALINE) 7.3 Regresión logística 7.3.1 Regresión logística con scikit-learn 7.3.2 Regresión logística con el descenso del gradiente estocástico 7.3.3 Regresión logística con regularización 7.4. Métricas de evaluación 7.4.1. Matriz de confusión 7.4.2. Exactitud (Accuracy) 7.4.3. Precisión (Precision) 7.4.4. Recall, Sensibilidad o TPR (Tasa de verdadero positivo) 7.4.5. F1 7.4.6. Tasa de falsos positivos 7.4.7. Curvas ROC (receiver operating characteristics) 7.5 Máquinas de vectores de soporte (SVM) 7.5.1. Clasificación Multiclase con SVM lineal 7.5.2. Kernels para separar datos no lineales --CAPÍTULO 8. Modelos de Clasificación II 8.1 Árboles de decisión 8.1.1. Métricas para medir la separación 8.1.2. Crear y visualizar árboles de decisión 8.1.3. Identificación de características importantes 8.2 Bosques aleatorios (Random Forest) 8.3 Adaboost (Adaptative boosting) 8.4 Gradient boosting 8.5 Naive bayes 8.6 K Vecinos mas cercanos (KNN) 8.7 Sistemas de recomendación 8.7.1. Sistemas de recomendación basados en contenido 8.7.2. Sistema de recomendación basado en filtro colaborativo?220 8.8 Entrenamiento mediante aprendizaje en línea --CAPÍTULO 9. Clustering 9.1 K Medias 9.2 Clustering jerárquico 9.3 Dbscan (Density Based Spatial Clustering of Applications with Noise) --CAPÍTULO 10. Reducción de la dimensionalidad 10.1 Análisis de componentes principales (PCA) 10.2 Análisis discriminante lineal (ADL) --CAPÍTULO 11. Introducción a las redes neuronales 11.1 Conceptos básicos sobre redes neuronales 11.1.1. Neurona artificial 11.1.2. Red neuronal 11.1.3. Pesos 11.1.4. Sesgos (Bias) 11.1.5. Funciones de activación determina la salida de la neurona. 11.2 Entrenamiento de una red neuronal 11.3 Red neuronal para clasificación binaria 11.4 neuronal para clasificación múltiple --CAPÍTULO 12. Redes neuronales convolucionales 12.1 Introducción a las redes neuronales convolucionales 12.1.1. Convolución 12.1.2. Agrupación 12.2 CNNs en Keras 12.3 Regularización y dropout --CAPÍTULO 13. Aumento de datos y transferencia de aprendizaje 13.1 Generador de datos de imágenes 13.2 Aumento de datos (data augmentation) 13.3 Transferencia de aprendizaje (transfer learning) 13.3.1. Extracción de características 13.3.2. Ajuste fino (Fine tuning) --CAPÍTULO 14. Introducción al Procesamiento del Lenguaje Natural (PNL) 14.1 Palabras embebidas (Word embedding) 14.2 Introducción a Word2Vec 14.3 Word2vec con librería Gensim --CAPÍTULO 15. Redes neuronales recurrentes (RNN) 15.1 Introducción a las redes neuronales recurrentes 15.2 Propagación a través del tiempo (BPTTT) 15.3 LSTM (Memoria larga a corto plazo) 15.3.1. Ejemplo sobre análisis de sentimiento 15.3.2. Ejemplo sobre generación de texto --Índice analítico --Referencias bibliográficas
Tags from this library: No tags from this library for this title. Log in to add tags.
Star ratings
    Average rating: 0.0 (0 votes)
Holdings
Item type Current library Call number Copy number Status Date due Barcode
Libros Libros CIBESPAM-MFL 005.133 / P649 (Browse shelf(Opens below)) Ej: 1 Available 006052

-Prólogo
-Introducción
--CAPÍTULO 1. Conceptos básicos de programación en Python 3.9
1.1 Entorno de desarrollo y primeros pasos
1.2 Variables, Tipos de datos y operadores
1.3 Estructuras de datos: Tuplas, listas y diccionarios
1.4 Estructuras selectivas
1.5 Estructuras repetitivas1.6 Funciones
1.7 Clases y objetos
--CAPÍTULO 2. Introducción al Aprendizaje Automático
2.1 ¿Qué es aprendizaje automático?
2.2 Conceptos de aprendizaje automático
2.3 Tipos de aprendizaje automático40
2.4 Problemas tipicos en aprendizaje automático
2.5 Metodología CRISP-DM
--CAPÍTULO 3. Herramientas para el aprendizaje automático
3.1 Manejo básico de datos con PANDAS
3.2 Manejo de arreglos con Numpy
3.2.1. Creación de arreglos
3.2.2. Acceso a elementos
3.2.3. Redimensionamiento
3.2.4. Operaciones matemáticas
3.3 Creando gráficos con Matplotlib
3.3.1 Gráficos de líneas
3.3.2 Gráficos de barras
3.3.3 Diagramas de dispersión
3.3.4. Histogramas
3.3.5. Diagrama de caja y bigotes
3.4 Breve Introducción a Scikit-Learn
--CAPÍTULO 4. Preprocesado de datos
4.1 ¿Que es el preprocesado de datos?
4.2 Creación de conjunto de entrenamiento y pruebas
4.3 Manejo de datos ausentes
4.4 Manejo de datos categóricos
4.5 Escalamiento de características
--CAPÍTULO 5. Modelos de regresión
5.1 Visualización de la relación entre características del conjunto de datos
5.2 Solución mediante el enfoque de mínimos cuadrados
5.3 Descenso del gradiente
5.4 Regresión lineal mediante scikit-learn
5.4.1. Regresión Simple
5.4.2 Regresión múltiple
5.5 Regresión con random sample consensus (RAMSAC)
5.6 Regresión lineal polinómica
5.7 Regresión lineal múltiple en notación matricial
5.8 Modelos no lineales
5.8.1 Funciones no lineales
5.8.2 Ejemplo suscripciones de telefonía
--CAPÍTULO 6. Regularización, métricas de evaluación y ajuste de hiperparámetros
6.1. Regularización
6.1.1 Regresión Rígida
6.1.2 Regresión Lasso
6.1.3 Red elástica
6.2. Métricas y técnicas de validación de modelos de regresión
6.2.1 Error absoluto medio (MAE)
6.2.2 Error cuadrático medio (MSE)
6.2.3 Coeficiente de determinación (R2)
6.2.4 Validación cruzada por k iteraciones
6.3. Curvas de aprendizaje y validación
6.4. Técnica de busqueda de cuadrículas par el ajuste de hiperparámetros
--CAPÍTULO 7. Modelos de Clasificación I
7.1 Perceptrón simple
7.2 Neurona lineal adaptativa (ADALINE)
7.3 Regresión logística
7.3.1 Regresión logística con scikit-learn
7.3.2 Regresión logística con el descenso del gradiente estocástico
7.3.3 Regresión logística con regularización
7.4. Métricas de evaluación
7.4.1. Matriz de confusión
7.4.2. Exactitud (Accuracy)
7.4.3. Precisión (Precision)
7.4.4. Recall, Sensibilidad o TPR (Tasa de verdadero positivo)
7.4.5. F1
7.4.6. Tasa de falsos positivos
7.4.7. Curvas ROC (receiver operating characteristics)
7.5 Máquinas de vectores de soporte (SVM)
7.5.1. Clasificación Multiclase con SVM lineal
7.5.2. Kernels para separar datos no lineales
--CAPÍTULO 8. Modelos de Clasificación II
8.1 Árboles de decisión
8.1.1. Métricas para medir la separación
8.1.2. Crear y visualizar árboles de decisión
8.1.3. Identificación de características importantes
8.2 Bosques aleatorios (Random Forest)
8.3 Adaboost (Adaptative boosting)
8.4 Gradient boosting
8.5 Naive bayes
8.6 K Vecinos mas cercanos (KNN)
8.7 Sistemas de recomendación
8.7.1. Sistemas de recomendación basados en contenido
8.7.2. Sistema de recomendación basado en filtro colaborativo?220
8.8 Entrenamiento mediante aprendizaje en línea
--CAPÍTULO 9. Clustering
9.1 K Medias
9.2 Clustering jerárquico
9.3 Dbscan (Density Based Spatial Clustering of Applications with Noise)
--CAPÍTULO 10. Reducción de la dimensionalidad
10.1 Análisis de componentes principales (PCA)
10.2 Análisis discriminante lineal (ADL)
--CAPÍTULO 11. Introducción a las redes neuronales
11.1 Conceptos básicos sobre redes neuronales
11.1.1. Neurona artificial
11.1.2. Red neuronal
11.1.3. Pesos
11.1.4. Sesgos (Bias)
11.1.5. Funciones de activación determina la salida de la neurona.
11.2 Entrenamiento de una red neuronal
11.3 Red neuronal para clasificación binaria
11.4 neuronal para clasificación múltiple
--CAPÍTULO 12. Redes neuronales convolucionales
12.1 Introducción a las redes neuronales convolucionales
12.1.1. Convolución
12.1.2. Agrupación
12.2 CNNs en Keras
12.3 Regularización y dropout
--CAPÍTULO 13. Aumento de datos y transferencia de aprendizaje
13.1 Generador de datos de imágenes
13.2 Aumento de datos (data augmentation)
13.3 Transferencia de aprendizaje (transfer learning)
13.3.1. Extracción de características
13.3.2. Ajuste fino (Fine tuning)
--CAPÍTULO 14. Introducción al Procesamiento del Lenguaje Natural (PNL)
14.1 Palabras embebidas (Word embedding)
14.2 Introducción a Word2Vec
14.3 Word2vec con librería Gensim
--CAPÍTULO 15. Redes neuronales recurrentes (RNN)
15.1 Introducción a las redes neuronales recurrentes
15.2 Propagación a través del tiempo (BPTTT)
15.3 LSTM (Memoria larga a corto plazo)
15.3.1. Ejemplo sobre análisis de sentimiento
15.3.2. Ejemplo sobre generación de texto
--Índice analítico
--Referencias bibliográficas

There are no comments on this title.

to post a comment.