El aprendizaje por transferencia utiliza la información recogida mientras se ocupa de un tema y la aplica a otro tema alternativo, aunque esté relacionado.

Por ejemplo, la información recogida mientras se averigua cómo percibir los automóviles puede utilizarse en cierta medida para percibir los camiones.

Pre-entrenamiento

En el momento en que entrenamos el sistema en un enorme conjunto de datos (para el modelo: ImageNet), entrenamos cada uno de los parámetros del sistema neural y a lo largo de estas líneas se descubre el modelo. Puede llevar horas en su GPU.

Ajuste fino

Podemos dar el nuevo conjunto de datos para calibrar la CNN preparada. Piensa en que el nuevo conjunto de datos es prácticamente como el conjunto de datos original utilizado para la preparación. Ya que el nuevo conjunto de datos es comparativo, se pueden utilizar cargas similares para eliminar los aspectos más destacados del nuevo conjunto de datos.

En el caso de que el nuevo conjunto de datos sea pequeño, es más inteligente preparar sólo las últimas capas del sistema para abstenerse de la sobrecarga, manteniendo todas las demás capas fijas. Para expulsar las últimas capas del sistema ya preparadas. Incluir nuevas capas. Reentrenar sólo las nuevas capas.

Si el nuevo conjunto de datos es muy grande, reentrenar toda la red con los pesos iniciales del modelo pre-entrenado.

¿El método más efectivo para ajustar si el nuevo conjunto de datos es totalmente diferente del original?

Los puntos destacados anteriores de una ConvNet contienen puntos destacados cada vez más convencionales (por ejemplo, identificadores de bordes o localizadores de masas de sombreado), sin embargo, las capas posteriores de la ConvNet resultan ser lógicamente cada vez más explícitas en cuanto a las sutilezas de las clases contenidas en el primer conjunto de datos.

Las capas anteriores pueden separar los aspectos más destacados de la nueva información. Así que será genial en la remota posibilidad de que se arreglen las capas anteriores y se reentrenen las restantes, en la remota posibilidad de que se obtenga sólo una modesta cantidad de información.

En el caso de que tengas una gran cantidad de información, puedes volver a entrenar todo el sistema con cargas instaladas del sistema preparado.