MARC details
000 -CABECERA |
Longitud fija campo de control |
ntdaa22 ab4500 |
003 - IDENTIFICADOR DEL NÚMERO DE CONTROL |
Identificador del número de control |
UnInEc |
005 - FECHA Y HORA DE LA ÚLTIMA TRANSACCIÓN |
Fecha y hora de la última transacción |
20190722125413.0 |
006 - CÓDIGOS DE INFORMACIÓN DE LONGITUD FIJA - CARACTERÍSTICAS DEL MATERIAL ADICIONAL |
Códigos de información de longitud fija - Características del material adicional |
a||||g ||i| 00| 0 |
008 - CÓDIGOS DE INFORMACIÓN DE LONGITUD FIJA |
Códigos de información de longitud fija |
140501s9999 mx ||||f |||| 00| 0 spa d |
020 ## - NÚMERO INTERNACIONAL NORMALIZADO PARA LIBROS |
Número Internacional Normalizado para Libros (ISBN) |
9788499640112 |
040 ## - FUENTE DE LA CATALOGACIÓN |
Centro catalogador de origen |
CIBESPAM MFL |
041 ## - CÓDIGO DE LENGUA |
Código de lengua del texto;banda sonora o título independiente |
spa. |
082 ## - NÚMERO DE LA CLASIFICACIÓN DECIMAL DEWEY |
Número de clasificación |
006.31 |
Cutter |
P151 |
Dato adicional |
2010 |
100 ## - PUNTO DE ACCESO PRINCIPAL-NOMBRE DE PERSONA |
Nombre de persona |
Pajares Martinsanz, Gonzalo |
245 ## - MENCIÓN DE TÍTULO |
Título |
Aprendizaje automático. |
Resto del título |
Un enfoque práctico. |
260 ## - PUBLICACIÓN, DISTRIBUCIÓN, ETC. (PIE DE IMPRENTA) |
Lugar de publicación, distribución, etc. |
Madrid, España |
Nombre del editor, distribuidor, etc. |
Ra-Ma |
Fecha de publicación, distribución, etc. |
2010 |
300 ## - DESCRIPCIÓN FÍSICA |
Extensión |
376 páginas; |
Otras características físicas |
Figuras, Tablas; |
505 ## - NOTA DE CONTENIDO CON FORMATO |
Nota de contenido con formato |
AUTORES <br/>PRÓLOGO<br/><br/>CAPÍTULO 1. APRENDIZAJE: CONCEPTOS GENERALES <br/>1.1 INTRODUCCIÓN <br/>1.2 CLASIFICACIÓN <br/>1.3 REGRESIÓN <br/>1.4 PROBABILIDAD <br/>1.4.1 Probabilidad de Bayes <br/>1.4.2 Probabilidad de variables continuas <br/>1.4.3 Medias y Varianzas <br/>1.5 ESQUEMA GENERAL DEL APRENDIZAJE <br/>1.5.1 Reconocimiento de patrones <br/>1.5.2 Regresión <br/>1.5.3 Estima de una densidad de probabilidad <br/>1.6 ÁREAS RELACIONADAS CON EL APRENDIZAJE <br/>1.7 ORGANIZACIÓN DEL LIBRO <br/><br/>CAPÍTULO 2. APRENDIZAJE ESTADÍSTICO <br/>2.1 INTRODUCCIÓN <br/>2.2 AGRUPAMIENTO BORROSO <br/>2.3 CLASIFICADOR PARAMÉTRICO: BAYES <br/>2.3.1 Caso normal multivariable: media desconocida <br/>2.3.2 Caso normal multivariable: media y matriz de covarianza desconocidas <br/>2.3.3 Teoría de la decisión de Bayes: el clasificador Bayesiano<br/>2.3.4 Medidas estadísticas <br/>2.4 CLASIFICADOR NO PARAMÉTRICO: VENTANA DE PARZEN <br/>2.5 APLICACIÓN PRÁCTICA <br/>2.5.1 Clasificación de texturas en imágenes naturales <br/>2.5.2 Método pseudoaleatorio de Balasko <br/>2.5.3 Método de cuantización vectorial no supervisado <br/>2.6 NOTAS FINALES <br/><br/>CAPÍTULO 3. COMBINACIÓN DE CLASIFICADORES <br/>3.1 INTRODUCCIÓN <br/>3.2 ASPECTOS GENERALES EN LA COMBINACIÓN DE CLASIFICADORES <br/>3.2.1 Razones para la combinación <br/>3.2.2 Tipos de combinaciones <br/>3.3 COMBINACIONES NO ENTRENABLES<br/>3.3.1 Votación Mayoritaria <br/>3.3.2 Combinación de Bayes<br/>3.3.3 Combinación mediante funciones <br/>3.3.4 Combinación mediante operadores de agregación fuzzy <br/>3.3.5 Resumen de los métodos no entrenables <br/>3.4 COMBINACIONES ENTRENABLES: INTEGRAL FUZZY<br/>3.5 APLICACIÓN PRÁCTICA <br/>3.5.1 Procesos comunes <br/>3.5.2 Procesos diferenciados <br/>3.6 NOTAS FINALES <br/><br/>CAPÍTULO 4. REDES NEURONALES ARTIFICIALES <br/>4.1 PRINCIPIOS BÁSICOS <br/>4.1.1 Redes neuronales artificiales y su analogía con las neuronas biológicas <br/>4.1.2 Elementos de una red neuronal <br/>4.1.3 Ventajas de las redes neuronales <br/>4.2 EL PROCESO DE APRENDIZAJE <br/>4.2.1 Algoritmos de aprendizaje <br/>4.2.2 Tipos de aprendizaje <br/>4.3 REDES HACIA ADELANTE (FEED-FORWARD) <br/>4.3.1 El perceptrón <br/>4.3.2 Adaline<br/>4.3.3 El perceptrón multicapa <br/>4.4 REDES COMPETITIVAS <br/>4.4.1 Mapas auto-organizados (SOM) <br/>4.5 APLICACIONES PRÁCTICAS <br/>4.6 NOTAS FINALES <br/><br/>CAPÍTULO 5. MÁQUINAS DE VECTORES SOPORTE <br/>5.1 INTRODUCCIÓN <br/>5.2 SVM PARA CLASIFICACIÓN: CASO SEPARABLE <br/>5.3 SVM EN CASOS NO SEPARABLES <br/>5.3.1 Función de decisión lineal con errores <br/>5.3.2 Clasificadores no lineales <br/>5.4 RESOLUCIÓN DE UN PROBLEMA BICLASE CON FUNCIONES NÚCLEO <br/>5.5 PROBLEMAS MULTICLASE <br/>5.6 APLICACIÓN PRÁCTICA <br/>5.6.1 Etapa de procesamiento<br/>5.6.2 Etapa de entrenamiento<br/>5.6.3 Etapa de validación <br/>5.7 NOTAS FINALES<br/><br/>CAPÍTULO 6. REDES BAYESIANAS <br/>6.1 INTRODUCCIÓN <br/>6.1.1 Notación <br/>6.2 REDES BAYESIANAS <br/>6.2.1 Modelo gráfico <br/>6.2.2 Relaciones probabilísticas <br/>6.3 ALGORITMOS DE INFERENCIA PROBABILÍSTICA <br/>6.3.1 Algoritmos de inferencia exacta <br/>6.3.2 Algoritmos de inferencia aproximada <br/>6.4 APRENDIZAJE DE REDES BAYESIANAS <br/>6.4.1 Aprendizaje paramétrico <br/>6.4.2 Aprendizaje estructural <br/>6.5 APLICACIÓN PRÁCTICA <br/>6.5.1 Descripción del problema <br/>6.5.2 Ejemplo básico <br/>6.5.3 Datos de activación cerebral de Pittsburgh <br/>6.6 NOTAS FINALES <br/><br/>CAPÍTULO 7. SIMULACIONES DE MONTE CARLO – I <br/>7.1 INTRODUCCIÓN <br/>7.2 PRESENTACIÓN FORMAL DEL PROBLEMA <br/>7.3 INTEGRACIÓN DE MONTE CARLO <br/>7.4 MÉTODOS AUXILIARES DE MUESTREO <br/>7.4.1 Muestreo por rechazo (RS) <br/>7.4.2 Muestreo Enfatizado (IS) <br/>7.4.3 Remuestreo por pesos (WR) <br/>7.5 APLICACIÓN PRÁCTICA <br/>7.6 NOTAS FINALES <br/><br/>CAPÍTULO 8. SIMULACIONES DE MONTE CARLO - II <br/>8.1 INTRODUCCIÓN <br/>8.2 MÉTODOS DE SIMULACIÓN POR CADENAS DE MARKOV (MCMC) <br/>8.2.1 Fundamento del método <br/>8.2.2 Cadena general de los métodos de Metropolis-Hastings y Gibbs <br/>8.2.3 Algoritmos de Metropolis-Hastings (MH) <br/>8.2.4 Método de Gibbs <br/>8.3 MÉTODOS SECUENCIALES DE MONTE CARLO <br/>8.3.1 Descripción del problema <br/>8.3.2 Filtros de Partículas (PF)<br/>8.4 COMPARATIVA <br/>8.4.1 Métodos de simulación generales <br/>8.4.2 Algoritmos <br/>8.5 APLICACIÓN PRÁCTICA <br/>8.6 NOTAS FINALES <br/><br/>CAPÍTULO 9. EL APRENDIZAJE CON ALGORITMOS GENÉTICOS <br/>9.1 INTRODUCCIÓN<br/>9.2 TIPOS DE APRENDIZAJE <br/>9.3 LOS ALGORITMOS GENÉTICOS FRENTE A OTRAS TÉCNICAS <br/>9.4 APLICACIÓN DE LOS ALGORITMOS GENÉTICOS <br/>9.4.1 Un ejemplo práctico: la cerveza <br/>9.4.2 Algoritmos Genéticos Multiobjetivo <br/>9.5 GENERALIZACIÓN DEL EJEMPLO PROPUESTO<br/>9.5.1 Elementos básicos de un AG <br/>9.5.2 Técnicas de Selección <br/>9.5.3 Técnicas de Cruce <br/>9.5.4 La Mutación <br/>9.5.5 Comparación entre el cruce y la mutación <br/>9.5.6 Ajuste de Parámetros <br/>9.6 MANEJO DE RESTRICCIONES <br/>9.7 NOTAS FINALES <br/><br/>CAPÍTULO 10. APRENDIZAJE MEDIANTE ÁRBOLES DE DECISIÓN <br/>10.1 INTRODUCCIÓN <br/>10.2 ÁRBOLES DE DECISIÓN <br/>10.2.1 Formalización <br/>10.3 ALGORITMO ID3 <br/>10.3.1 Determinación del atributo de ramificación <br/>10.3.2 Modo de generación <br/>10.4 ÁRBOL DE DECISIÓN FUZZY <br/>10.4.1 Proceso de construcción del árbol borroso <br/>10.5 APLICACIÓN PRÁCTICA <br/>10.6 NOTAS FINALES <br/><br/>CAPÍTULO 11. RAZONAMIENTO BASADO EN CASOS <br/>11.1 INTRODUCCIÓN <br/>11.2 ESTRUCTURA PRINCIPAL Y PROBLEMÁTICA <br/>11.2.1 Ciclo clásico de un CBR <br/>11.2.2 Estructura de los Casos y Base de Casos <br/>11.2.3 Recuperar <br/>11.2.4 Reutilizar <br/>11.2.5 Revisar <br/>11.2.6 Recordar <br/>11.3 APLICACIONES PRÁCTICAS <br/>11.3.1 Un sistema CBR como ayuda en el procesamiento de imágenes <br/>11.3.2 Un sistema CBR para la toma de decisiones <br/>11.4 NOTAS FINALES <br/><br/>CAPÍTULO 12. APRENDIZAJE POR REFUERZO <br/>12.1 INTRODUCCIÓN <br/>12.2 APRENDIZAJE Y REFUERZO <br/>12.3 BÚSQUEDA EN EL ESPACIO DE POLÍTICAS <br/>12.4 ASIGNACIÓN DE CRÉDITO TEMPORAL <br/>12.5 FUNCIONES DE VALOR <br/>12.6 LA PROPIEDAD DE MARKOV <br/>12.7 ANÁLISIS DE COMPONENTES <br/>12.7.1 Selección de acciones y exploración <br/>12.7.2 Optimización <br/>12.8 CONCLUSIONES <br/>12.9 APLICACIÓN PRÁCTICA <br/>12.10 NOTAS FINALES <br/>DESCARGA DE APÉNDICES Y CÓDIGO <br/>BIBLIOGRAFÍA <br/><br/>ÍNDICE ALFABÉTICO |
520 ## - NOTA DE SUMARIO |
Sumario, etc, |
Los investigadores, estudiantes o profesionales de la industria involucrados en temas de Aprendizaje Automático encontraran en este libro una referencia de base sobre las tecnologías teórico-prácticas más avanzadas en dicho campo, proporcionadas por los diecinueve autores que han unido sus esfuerzos y elaborado sus contenidos.<br/>El libro proporciona los recursos teóricos necesarios para abordar problemas de distinta naturaleza relativo al Aprendizaje Automático y establece las pautas concretas para su aplicación a diversos problemas reales, que proporcionan una visión práctica de los temas tratados y a la vez establecen los mecanismos para su ampliación a otras aplicaciones. Esta simbiosis teórico-práctica se concreta en la exposición de los conceptos teóricos, el diseño de métodos y procedimientos para su aplicación, la formulación de problemas y las estrategias para su solución. Todo ello, complementado con numerosos ejemplos ilustrativos, figuras y referencias bibliográficas. |
650 ## - PUNTO DE ACCESO ADICIONAL DE MATERIA - TÉRMINO DE MATERIA |
Término de materia o nombre geográfico como elemento inicial |
Computación |
650 ## - PUNTO DE ACCESO ADICIONAL DE MATERIA - TÉRMINO DE MATERIA |
Término de materia o nombre geográfico como elemento inicial |
Probabilidad de Bayes |
650 ## - PUNTO DE ACCESO ADICIONAL DE MATERIA - TÉRMINO DE MATERIA |
Término de materia o nombre geográfico como elemento inicial |
Inteligencia Artificial |
700 ## - PUNTO DE ACCESO ADICIONAL - NOMBRE DE PERSONA |
Nombre de persona |
De la Cruz García, Jesús Manuel |
912 ## - DATOS OPENBIBLIO |
Fecha de última modificación |
2019-07-22 |
Usuario que lo modifico por última vez |
Paúl Villacreses |
913 ## - ÁREA Y CARRERA |
Área de Conocimiento |
Información y Comunicación (TIC) |
Carrera |
Carrera de Computación |
Líneas de Investigación Institucionales |
Soluciones computacionales para el sector agroproductivo y de servicios |
942 ## - ENTRADA DE ELEMENTOS AGREGADOS (KOHA) |
Fuente de clasificaión o esquema |
Dewey Decimal Classification |
Koha [por defecto] tipo de item |
Libros |