El año 2015 fue un gran año en el campo del razonamiento hecho por el hombre. No sólo los ordenadores están descubriendo más y adaptándose más rápido, sino que estamos estudiando cómo mejorar sus marcos. Todo está empezando a ajustarse, y a la luz de ello estamos viendo pasos que nunca pensamos que fueran concebibles hasta hace poco. Tenemos programas que pueden contar historias sobre imágenes. Tenemos vehículos que se conducen solos. Incluso tenemos programas que hacen artesanía. En caso de que necesite examinar progresivamente los avances en 2015, lea este artículo. Aquí en Josh.ai, con la innovación de la IA convirtiéndose en el centro de casi todo lo que hacemos, creemos que es imperativo ver una parte de la frase básica y tener una idea desagradable de cómo funciona todo.

¿Qué son?

Una tonelada de los avances en el razonamiento computarizado son nuevos modelos medibles, sin embargo, la parte dominante de la mente de los avances son en una innovación llamada sistemas neurales falsos (RNA). En el caso de que hayas examinado algo sobre ellos anteriormente, habrás observado que estos RNA son un modelo desagradable de cómo está organizada la mente humana. Observen que hay un contraste entre los sistemas neuronales falsos y los sistemas neuronales. A pesar de que mucha gente deja de lado la falsificación por su brusquedad, la palabra falsificación se preparó para la expresión para que los individuos en la neurobiología computacional pudieran, en cualquier caso, utilizar el término sistema neural para aludir a su trabajo. A continuación se muestra un gráfico de las neuronas y neurotransmisores reales del cerebro en contraste con los falsos.

No teman si el gráfico no sale obviamente. Lo que es esencial comprender aquí es que en nuestras RNA tenemos estas unidades de estimación llamadas neuronas. Estas neuronas falsas están asociadas con neurotransmisores que son cualidades extremadamente simples de ponderar. Esto significa que, dado un número, una neurona realizará un tipo de cálculo (por ejemplo, la capacidad sigmoidea), y después, la consecuencia de este cómputo se incrementará en una carga a medida que “viaje”. El resultado ponderado puede ser aquí y allá el rendimiento de su sistema neural, o como discutiré pronto, puede tener más neuronas dispuestas en capas, que es la idea esencial de un pensamiento que llamamos aprendizaje profundo.

¿De dónde se originan?

Los sistemas neurales falsos no son otra idea. La verdad es que ni siquiera los llamamos sistemáticamente sistemas neuronales y no se parecen en nada a los que tenían al principio. En los años 60, teníamos lo que se conocía como un perceptrón. Los perceptrones estaban hechos de neuronas de McCulloch-Pitts. Incluso teníamos perceptrones de un solo lado, y por fin los individuos comenzaron a hacer perceptrones de múltiples capas, lo que es sinónimo del falso sistema neural general del que nos enteramos ahora.

Sea como fuere, pausa, en el caso de que hayamos tenido sistemas neuronales desde los años 60, ¿por qué razón dirían que se están volviendo colosales hace unos segundos? Es una larga historia, y les insto a que sintonicen esta escena de transmisión digital para sintonizar a los “padres” de las RNA actuales que hablan de sus puntos de vista sobre el tema. Para resumir rápidamente, hay un puñado de variables que impiden que las RNA sean cada vez más prominentes. No teníamos la fuerza de manejo del PC y no teníamos la información para prepararlos. Se desaprobaba su utilización porque tenían una capacidad aparentemente subjetiva de rendir bien. Cada una de estas variables está evolucionando. Nuestros PCs son cada vez más rápidos y dominantes, y con la web, tenemos una amplia gama de información que se comparte para su uso.

¿Cómo funcionarán?

Me referí a que las neuronas y los neurotransmisores realizan cálculos. La investigación en la vanguardia de sus pensamientos debería ser: “¿Cómo se darían cuenta de qué estimaciones realizar?” ¿Diría que estaba en lo cierto? La respuesta apropiada es que básicamente tenemos que hacerles muchas preguntas y darles respuestas. Este es un campo llamado aprendizaje administrado. Con suficientes instancias de respuestas de investigación, los recuentos y cualidades de cada neurona y neurotransmisor se equilibran gradualmente. Generalmente, esto es a través de un procedimiento llamado retropropagación.

Imagina que estás paseando por una pasarela y ves un poste de luz. Nunca has observado un poste de luz, así que caminas directamente hacia él y dices “ouch”. Cuando ves un poste de luz te das prisa un par de gateos hacia el lado y sigues caminando. Esta vez tu hombro golpea el poste de luz y de nuevo dices “ouch”. La tercera vez que ves un poste de luz, te mueves para garantizar que no golpees el poste de luz. Pero ahora ha ocurrido algo horrible… ahora ha caminado directamente hacia un buzón, y nunca ha observado un buzón. Entras en él y todo el procedimiento se repite una vez más. Claramente, esto es una tergiversación, sin embargo, es adecuadamente lo que hace la retropropagación. A un sistema neural falso se le da un gran número de modelos y después, intenta obtener una respuesta similar al modelo dado. En el momento en que no es correcta, se determina un error garrafal y las cualidades en cada neurona y neurotransmisor se engendran en sentido inverso a través de la RNA para siempre. Este procedimiento requiere muchos modelos. Para aplicaciones reales, el número de modelos puede ser de millones.

Ya que tenemos una comprensión de los sistemas neurales falsos y hasta cierto punto una comprensión por la forma en que funcionan, otra investigación debería estar en la vanguardia de sus pensamientos. ¿Cómo sabríamos qué número de neuronas tenemos que utilizar? Es más, ¿por qué razón intensificó las capas de la palabra anterior? Las capas son simplemente conjuntos de neuronas. Tenemos una capa de información que es la información que le damos a la RNA. Tenemos las capas envueltas, que es el lugar donde ocurre el encantamiento. En conclusión, tenemos la capa de rendimiento, que es el lugar donde se establecen los cálculos completos del sistema para que los utilicemos.

Las capas en sí mismas son simplemente conjuntos de neuronas. Al principio de los perceptrones multicapas, inicialmente sentimos que tener sólo una capa de información, una capa cubierta y una capa de rendimiento era adecuado. Es un buen augurio, ¿no es así? Dados unos pocos números, simplemente necesitas un montón de cálculos, y después, obtienes un rendimiento. En el caso de que tu RNA no estuviera comprobando el valor correcto, simplemente añadiste más neuronas a la única capa cubierta. Al final, descubrimos que al hacer esto, simplemente estábamos haciendo un mapa de cada contribución a la producción. Al final del día, descubrimos que la información específica guiaría consistentemente a un rendimiento específico. No teníamos ninguna adaptabilidad y realmente sólo podíamos tratar con fuentes de datos que habíamos visto anteriormente. Esto no era de ninguna manera, forma o manera lo que necesitábamos.

En la actualidad, la realización profunda presente, que es el punto en el que tenemos más de una capa oculta. Esta es una de las razones por las que tenemos mejores RNA ahora, ya que necesitamos varios centros con decenas, si no más, de capas. Esto da lugar a una gigantesca medida de factores que tenemos que controlar a la vez. Los avances en la programación paralela también nos permiten ejecutar RNA significativamente más grandes en grupos. Nuestros falsos sistemas neuronales se están haciendo tan grandes que nunca más podremos ejecutar una edad solitaria, que es un énfasis a través de todo el sistema, sin un momento de retraso. Tenemos que hacer todo en grupos que son sólo subconjuntos de todo el sistema, y una vez que completamos una edad completa, en ese punto aplicamos la retropropagación.

¿Qué tipos hay?

Además de utilizar ahora el aprendizaje profundo, es imperativo darse cuenta de que hay un gran número de diversos modelos de sistemas neuronales falsificados. La RNA regular es un arreglo en el que cada neurona se asocia con las demás neuronas en la siguiente capa. Éstas se denominan explícitamente sistemas neuronales falsos de avance (a pesar de que las RNA son comúnmente todas de avance). Hemos descubierto que al interconectar las neuronas con diferentes neuronas en ejemplos específicos, podemos mostrar signos de mejora que provocan situaciones explícitas.

Sistemas neuronales repetitivos

Los sistemas neuronales repetitivos (RNN) se crearon para abordar las deficiencias de los sistemas neuronales falsos que no se conformaban con las opciones que dependían de la información del pasado. Una serie de RNA habían descubierto cómo resolver las opciones que dependían del entorno en la preparación, pero una vez que se resolvieron las opciones de uso, las opciones se hicieron autónomas unas de otras.

Sistemas Neurales Convolucionales

Los Sistemas Neurales Convolucionales (CNN), en algunos casos llamados LeNets (llamados así por Yann LeCun), son sistemas neuronales falsos donde las asociaciones entre capas tienen todas las características de ser bastante auto-afirmantes. En cualquier caso, el propósito de que los neurotransmisores estén dispuestos de la manera en que lo están es ayudar a disminuir el número de parámetros que deben ser avanzados. Esto se termina tomando nota de un equilibrio específico en la forma en que se asocian las neuronas, por lo que básicamente se pueden “reutilizar” las neuronas para tener duplicados indistinguibles sin requerir fundamentalmente un número similar de neurotransmisores. Las CNN se utilizan normalmente para trabajar con imágenes debido a su capacidad de percibir diseños en píxeles envolventes. Hay un exceso de datos contenidos cuando se echa un vistazo a cada píxel individual contrastado con sus píxeles envolventes, y realmente se puede empaquetar una porción de estos datos a causa de sus propiedades uniformes. Suena como la circunstancia ideal para una CNN en la remota posibilidad de que me preguntes. Christopher Olah tiene una increíble entrada en su blog sobre la comprensión de las CNN, así como diferentes tipos de RNA que puedes descubrir aquí. Otra extraordinaria ventaja para la comprensión de las CNN es esta entrada de blog.