Colección de citas famosas - Slogan de motivación - Principio de la red neuronal BP

Principio de la red neuronal BP

La red neuronal BP se denomina "el comienzo del viaje de aprendizaje profundo" y es un algoritmo introductorio para las redes neuronales.

Varias redes neuronales de alto nivel se basan en la red BP. Los principios más básicos se derivan de la red BP. Además, debido a que la red neuronal BP tiene una estructura simple y un algoritmo clásico. una aplicación en redes neuronales. El tipo más extendido.

Comienzo del desarrollo: en la historia del desarrollo de las redes neuronales artificiales, la red de perceptrones ha desempeñado un papel importante en el desarrollo de las redes neuronales artificiales. Su aparición ha desencadenado una ola de investigación sobre las redes neuronales artificiales. auge de las redes. Como red neuronal original, la red de perceptrones de una sola capa (modelo M-P) tiene las ventajas de un modelo claro, una estructura simple y una pequeña cantidad de cálculo.

Sólo puede resolver la separabilidad lineal; sin embargo, con la profundización del trabajo de investigación, la gente descubrió que todavía tiene deficiencias, como no poder manejar problemas no lineales, incluso si la función de acción de la unidad de cálculo no lo hace. No utilice una función de válvula, pero otras funciones no lineales más complejas solo pueden resolver problemas linealmente separables. Ciertas funciones básicas no se pueden realizar, lo que limita su aplicación.

Red de alimentación directa multicapa: la única forma de mejorar las capacidades de clasificación e identificación de la red y resolver problemas no lineales es utilizar una red de alimentación directa multicapa, es decir, agregando capas implícitas entre la capa de entrada y la capa de salida.

Debuta la red neuronal BP: David Runelhart a mediados de los años 1980. Geoffrey Hinton, Ronald W-llians, David Parker y otros descubrieron de forma independiente el algoritmo de retropropagación de errores, denominado BP, que resolvió sistemáticamente el problema de aprender los pesos de conexión de capas ocultas de redes neuronales multicapa y proporcionó una derivación matemática completa. La gente llama red BP a la red feedforward multicapa que utiliza este algoritmo para la corrección de errores.

La red neuronal BP tiene capacidades de clasificación de patrones arbitrariamente complejas y excelentes capacidades de mapeo de funciones multidimensionales, lo que resuelve XOR y algunos otros problemas que los perceptrones simples no pueden resolver. Estructuralmente hablando, la red BP tiene una capa de entrada, una capa oculta y una capa de salida. Básicamente, el algoritmo BP toma el cuadrado del error de la red como función objetivo y utiliza el método de descenso de gradiente para calcular el valor mínimo de la función objetivo; .