Aprendizaje automático. (Record no. 11443)

MARC details
000 -CABECERA
Longitud fija campo de control ntdaa22 ab4500
003 - IDENTIFICADOR DEL NÚMERO DE CONTROL
Identificador del número de control UnInEc
005 - FECHA Y HORA DE LA ÚLTIMA TRANSACCIÓN
Fecha y hora de la última transacción 20190722125413.0
006 - CÓDIGOS DE INFORMACIÓN DE LONGITUD FIJA - CARACTERÍSTICAS DEL MATERIAL ADICIONAL
Códigos de información de longitud fija - Características del material adicional a||||g ||i| 00| 0
008 - CÓDIGOS DE INFORMACIÓN DE LONGITUD FIJA
Códigos de información de longitud fija   140501s9999 mx ||||f |||| 00| 0 spa d
020 ## - NÚMERO INTERNACIONAL NORMALIZADO PARA LIBROS
Número Internacional Normalizado para Libros (ISBN) 9788499640112
040 ## - FUENTE DE LA CATALOGACIÓN
Centro catalogador de origen CIBESPAM MFL
041 ## - CÓDIGO DE LENGUA
Código de lengua del texto;banda sonora o título independiente spa.
082 ## - NÚMERO DE LA CLASIFICACIÓN DECIMAL DEWEY
Número de clasificación 006.31
Cutter P151
Dato adicional 2010
100 ## - PUNTO DE ACCESO PRINCIPAL-NOMBRE DE PERSONA
Nombre de persona Pajares Martinsanz, Gonzalo
245 ## - MENCIÓN DE TÍTULO
Título Aprendizaje automático.
Resto del título Un enfoque práctico.
260 ## - PUBLICACIÓN, DISTRIBUCIÓN, ETC. (PIE DE IMPRENTA)
Lugar de publicación, distribución, etc. Madrid, España
Nombre del editor, distribuidor, etc. Ra-Ma
Fecha de publicación, distribución, etc. 2010
300 ## - DESCRIPCIÓN FÍSICA
Extensión 376 páginas;
Otras características físicas Figuras, Tablas;
505 ## - NOTA DE CONTENIDO CON FORMATO
Nota de contenido con formato AUTORES <br/>PRÓLOGO<br/><br/>CAPÍTULO 1. APRENDIZAJE: CONCEPTOS GENERALES <br/>1.1 INTRODUCCIÓN <br/>1.2 CLASIFICACIÓN <br/>1.3 REGRESIÓN <br/>1.4 PROBABILIDAD <br/>1.4.1 Probabilidad de Bayes <br/>1.4.2 Probabilidad de variables continuas <br/>1.4.3 Medias y Varianzas <br/>1.5 ESQUEMA GENERAL DEL APRENDIZAJE <br/>1.5.1 Reconocimiento de patrones <br/>1.5.2 Regresión <br/>1.5.3 Estima de una densidad de probabilidad <br/>1.6 ÁREAS RELACIONADAS CON EL APRENDIZAJE <br/>1.7 ORGANIZACIÓN DEL LIBRO <br/><br/>CAPÍTULO 2. APRENDIZAJE ESTADÍSTICO <br/>2.1 INTRODUCCIÓN <br/>2.2 AGRUPAMIENTO BORROSO <br/>2.3 CLASIFICADOR PARAMÉTRICO: BAYES <br/>2.3.1 Caso normal multivariable: media desconocida <br/>2.3.2 Caso normal multivariable: media y matriz de covarianza desconocidas <br/>2.3.3 Teoría de la decisión de Bayes: el clasificador Bayesiano<br/>2.3.4 Medidas estadísticas <br/>2.4 CLASIFICADOR NO PARAMÉTRICO: VENTANA DE PARZEN <br/>2.5 APLICACIÓN PRÁCTICA <br/>2.5.1 Clasificación de texturas en imágenes naturales <br/>2.5.2 Método pseudoaleatorio de Balasko <br/>2.5.3 Método de cuantización vectorial no supervisado <br/>2.6 NOTAS FINALES <br/><br/>CAPÍTULO 3. COMBINACIÓN DE CLASIFICADORES <br/>3.1 INTRODUCCIÓN <br/>3.2 ASPECTOS GENERALES EN LA COMBINACIÓN DE CLASIFICADORES <br/>3.2.1 Razones para la combinación <br/>3.2.2 Tipos de combinaciones <br/>3.3 COMBINACIONES NO ENTRENABLES<br/>3.3.1 Votación Mayoritaria <br/>3.3.2 Combinación de Bayes<br/>3.3.3 Combinación mediante funciones <br/>3.3.4 Combinación mediante operadores de agregación fuzzy <br/>3.3.5 Resumen de los métodos no entrenables <br/>3.4 COMBINACIONES ENTRENABLES: INTEGRAL FUZZY<br/>3.5 APLICACIÓN PRÁCTICA <br/>3.5.1 Procesos comunes <br/>3.5.2 Procesos diferenciados <br/>3.6 NOTAS FINALES <br/><br/>CAPÍTULO 4. REDES NEURONALES ARTIFICIALES <br/>4.1 PRINCIPIOS BÁSICOS <br/>4.1.1 Redes neuronales artificiales y su analogía con las neuronas biológicas <br/>4.1.2 Elementos de una red neuronal <br/>4.1.3 Ventajas de las redes neuronales <br/>4.2 EL PROCESO DE APRENDIZAJE <br/>4.2.1 Algoritmos de aprendizaje <br/>4.2.2 Tipos de aprendizaje <br/>4.3 REDES HACIA ADELANTE (FEED-FORWARD) <br/>4.3.1 El perceptrón <br/>4.3.2 Adaline<br/>4.3.3 El perceptrón multicapa <br/>4.4 REDES COMPETITIVAS <br/>4.4.1 Mapas auto-organizados (SOM) <br/>4.5 APLICACIONES PRÁCTICAS <br/>4.6 NOTAS FINALES <br/><br/>CAPÍTULO 5. MÁQUINAS DE VECTORES SOPORTE <br/>5.1 INTRODUCCIÓN <br/>5.2 SVM PARA CLASIFICACIÓN: CASO SEPARABLE <br/>5.3 SVM EN CASOS NO SEPARABLES <br/>5.3.1 Función de decisión lineal con errores <br/>5.3.2 Clasificadores no lineales <br/>5.4 RESOLUCIÓN DE UN PROBLEMA BICLASE CON FUNCIONES NÚCLEO <br/>5.5 PROBLEMAS MULTICLASE <br/>5.6 APLICACIÓN PRÁCTICA <br/>5.6.1 Etapa de procesamiento<br/>5.6.2 Etapa de entrenamiento<br/>5.6.3 Etapa de validación <br/>5.7 NOTAS FINALES<br/><br/>CAPÍTULO 6. REDES BAYESIANAS <br/>6.1 INTRODUCCIÓN <br/>6.1.1 Notación <br/>6.2 REDES BAYESIANAS <br/>6.2.1 Modelo gráfico <br/>6.2.2 Relaciones probabilísticas <br/>6.3 ALGORITMOS DE INFERENCIA PROBABILÍSTICA <br/>6.3.1 Algoritmos de inferencia exacta <br/>6.3.2 Algoritmos de inferencia aproximada <br/>6.4 APRENDIZAJE DE REDES BAYESIANAS <br/>6.4.1 Aprendizaje paramétrico <br/>6.4.2 Aprendizaje estructural <br/>6.5 APLICACIÓN PRÁCTICA <br/>6.5.1 Descripción del problema <br/>6.5.2 Ejemplo básico <br/>6.5.3 Datos de activación cerebral de Pittsburgh <br/>6.6 NOTAS FINALES <br/><br/>CAPÍTULO 7. SIMULACIONES DE MONTE CARLO – I <br/>7.1 INTRODUCCIÓN <br/>7.2 PRESENTACIÓN FORMAL DEL PROBLEMA <br/>7.3 INTEGRACIÓN DE MONTE CARLO <br/>7.4 MÉTODOS AUXILIARES DE MUESTREO <br/>7.4.1 Muestreo por rechazo (RS) <br/>7.4.2 Muestreo Enfatizado (IS) <br/>7.4.3 Remuestreo por pesos (WR) <br/>7.5 APLICACIÓN PRÁCTICA <br/>7.6 NOTAS FINALES <br/><br/>CAPÍTULO 8. SIMULACIONES DE MONTE CARLO - II <br/>8.1 INTRODUCCIÓN <br/>8.2 MÉTODOS DE SIMULACIÓN POR CADENAS DE MARKOV (MCMC) <br/>8.2.1 Fundamento del método <br/>8.2.2 Cadena general de los métodos de Metropolis-Hastings y Gibbs <br/>8.2.3 Algoritmos de Metropolis-Hastings (MH) <br/>8.2.4 Método de Gibbs <br/>8.3 MÉTODOS SECUENCIALES DE MONTE CARLO <br/>8.3.1 Descripción del problema <br/>8.3.2 Filtros de Partículas (PF)<br/>8.4 COMPARATIVA <br/>8.4.1 Métodos de simulación generales <br/>8.4.2 Algoritmos <br/>8.5 APLICACIÓN PRÁCTICA <br/>8.6 NOTAS FINALES <br/><br/>CAPÍTULO 9. EL APRENDIZAJE CON ALGORITMOS GENÉTICOS <br/>9.1 INTRODUCCIÓN<br/>9.2 TIPOS DE APRENDIZAJE <br/>9.3 LOS ALGORITMOS GENÉTICOS FRENTE A OTRAS TÉCNICAS <br/>9.4 APLICACIÓN DE LOS ALGORITMOS GENÉTICOS <br/>9.4.1 Un ejemplo práctico: la cerveza <br/>9.4.2 Algoritmos Genéticos Multiobjetivo <br/>9.5 GENERALIZACIÓN DEL EJEMPLO PROPUESTO<br/>9.5.1 Elementos básicos de un AG <br/>9.5.2 Técnicas de Selección <br/>9.5.3 Técnicas de Cruce <br/>9.5.4 La Mutación <br/>9.5.5 Comparación entre el cruce y la mutación <br/>9.5.6 Ajuste de Parámetros <br/>9.6 MANEJO DE RESTRICCIONES <br/>9.7 NOTAS FINALES <br/><br/>CAPÍTULO 10. APRENDIZAJE MEDIANTE ÁRBOLES DE DECISIÓN <br/>10.1 INTRODUCCIÓN <br/>10.2 ÁRBOLES DE DECISIÓN <br/>10.2.1 Formalización <br/>10.3 ALGORITMO ID3 <br/>10.3.1 Determinación del atributo de ramificación <br/>10.3.2 Modo de generación <br/>10.4 ÁRBOL DE DECISIÓN FUZZY <br/>10.4.1 Proceso de construcción del árbol borroso <br/>10.5 APLICACIÓN PRÁCTICA <br/>10.6 NOTAS FINALES <br/><br/>CAPÍTULO 11. RAZONAMIENTO BASADO EN CASOS <br/>11.1 INTRODUCCIÓN <br/>11.2 ESTRUCTURA PRINCIPAL Y PROBLEMÁTICA <br/>11.2.1 Ciclo clásico de un CBR <br/>11.2.2 Estructura de los Casos y Base de Casos <br/>11.2.3 Recuperar <br/>11.2.4 Reutilizar <br/>11.2.5 Revisar <br/>11.2.6 Recordar <br/>11.3 APLICACIONES PRÁCTICAS <br/>11.3.1 Un sistema CBR como ayuda en el procesamiento de imágenes <br/>11.3.2 Un sistema CBR para la toma de decisiones <br/>11.4 NOTAS FINALES <br/><br/>CAPÍTULO 12. APRENDIZAJE POR REFUERZO <br/>12.1 INTRODUCCIÓN <br/>12.2 APRENDIZAJE Y REFUERZO <br/>12.3 BÚSQUEDA EN EL ESPACIO DE POLÍTICAS <br/>12.4 ASIGNACIÓN DE CRÉDITO TEMPORAL <br/>12.5 FUNCIONES DE VALOR <br/>12.6 LA PROPIEDAD DE MARKOV <br/>12.7 ANÁLISIS DE COMPONENTES <br/>12.7.1 Selección de acciones y exploración <br/>12.7.2 Optimización <br/>12.8 CONCLUSIONES <br/>12.9 APLICACIÓN PRÁCTICA <br/>12.10 NOTAS FINALES <br/>DESCARGA DE APÉNDICES Y CÓDIGO <br/>BIBLIOGRAFÍA <br/><br/>ÍNDICE ALFABÉTICO
520 ## - NOTA DE SUMARIO
Sumario, etc, Los investigadores, estudiantes o profesionales de la industria involucrados en temas de Aprendizaje Automático encontraran en este libro una referencia de base sobre las tecnologías teórico-prácticas más avanzadas en dicho campo, proporcionadas por los diecinueve autores que han unido sus esfuerzos y elaborado sus contenidos.<br/>El libro proporciona los recursos teóricos necesarios para abordar problemas de distinta naturaleza relativo al Aprendizaje Automático y establece las pautas concretas para su aplicación a diversos problemas reales, que proporcionan una visión práctica de los temas tratados y a la vez establecen los mecanismos para su ampliación a otras aplicaciones. Esta simbiosis teórico-práctica se concreta en la exposición de los conceptos teóricos, el diseño de métodos y procedimientos para su aplicación, la formulación de problemas y las estrategias para su solución. Todo ello, complementado con numerosos ejemplos ilustrativos, figuras y referencias bibliográficas.
650 ## - PUNTO DE ACCESO ADICIONAL DE MATERIA - TÉRMINO DE MATERIA
Término de materia o nombre geográfico como elemento inicial Computación
650 ## - PUNTO DE ACCESO ADICIONAL DE MATERIA - TÉRMINO DE MATERIA
Término de materia o nombre geográfico como elemento inicial Probabilidad de Bayes
650 ## - PUNTO DE ACCESO ADICIONAL DE MATERIA - TÉRMINO DE MATERIA
Término de materia o nombre geográfico como elemento inicial Inteligencia Artificial
700 ## - PUNTO DE ACCESO ADICIONAL - NOMBRE DE PERSONA
Nombre de persona De la Cruz García, Jesús Manuel
912 ## - DATOS OPENBIBLIO
Fecha de última modificación 2019-07-22
Usuario que lo modifico por última vez Paúl Villacreses
913 ## - ÁREA Y CARRERA
Área de Conocimiento Información y Comunicación (TIC)
Carrera Carrera de Computación
Líneas de Investigación Institucionales Soluciones computacionales para el sector agroproductivo y de servicios
942 ## - ENTRADA DE ELEMENTOS AGREGADOS (KOHA)
Fuente de clasificaión o esquema Dewey Decimal Classification
Koha [por defecto] tipo de item Libros
Holdings
Suprimido Perdido Fuente de clasificación o esquema Estropeado No para préstamo Localización permanente Localización actual Fecha adquisición Fuente de adquisición Coste, precio normal de compra Préstamos totales Clasificación completa Código de barras Fecha última consulta Fecha último préstamo Número de copia Fecha del precio de reemplazo Tipo de item de Koha
    Dewey Decimal Classification     CIBESPAM-MFL CIBESPAM-MFL 07/22/2019 Donación 1.00 13 006.31 / P151 004998 07/20/2022 07/20/2022 Ej: 1 07/22/2019 Libros