Nu de datasets drastisch toenemen, ontwikkelen we vaardigheden om de manier waarop we diepe neurale netwerken trainen te verbeteren. Dit helpt datawetenschappers bij het in kaart brengen van de inputs en outputs bij het labelen van enorme hoeveelheden data. Deze gegevens omvatten labelvoorspellingen, zinnen, afbeeldingen, enz.
We zijn nog steeds niet in staat om de verschillen tussen de omstandigheden die helpen bij het trainen van de gegevens te generaliseren. Het model in staat stellen dergelijke activiteiten in de echte wereld uit te voeren, kan een lastige taak zijn. Omdat er tal van nieuwe en rommelige situaties zijn, zal het model op problemen stuiten waar de trainingsgegevens niet op berekend zijn.
Het algoritme moet nieuwe voorspellingen doen om ingewikkelde en levensechte situaties op te lossen. In dit artikel bespreken we hoe we gegevens kunnen overdragen aan de nieuwe omstandigheden. Deze blog zal begrijpen hoe modellen transfer learning kunnen toepassen en een succesvol en uitgebreid model voor supervised learning kunnen ontwikkelen.

Transfer leren begrijpen

Transfer learning is geen nieuwe aanpak in deep learning. Hoewel het verschilt van de traditionele methode om machine learning-modellen te maken en te trainen om een methode voor gegevensoverdracht te volgen, zijn er tal van overeenkomsten. De belangrijkste wortels van traditionele methoden zijn specifiek voor training, datasets en taken op basis van geïsoleerde modellen.
Het model bevat geen kennis die het van andere modellen overneemt. Bij het overdragen van leren kunt u de trainingsdatasets in nieuwe modellen controleren en problemen aanpakken zoals het uitvoeren van nieuwe taken met minder data.
U kunt deze aanpak begrijpen met een voorbeeld. Stel dat we verschillende objecten willen identificeren in een beperkt domein van een e-commerce bedrijf. Stel dat u taak 1 uitvoert als T1. U levert dan het model van verschillende datasets en stemt deze af op het uitvoeren van ongeziene datapunten van hetzelfde e-commerce datapunt of domein.
Het traditionele machine learning-algoritme breekt de taken in de gegeven domeinen af als de gegevens niet voldoende zijn. Laten we zeggen dat het model een aantal foto’s van kledingstukken voor een e-commerce website detecteert. Dit kan taak 2 of T2 zijn. In het ideale geval zou men de dataset of de foto’s van het ene getrainde model T1 moeten kunnen gebruiken voor een ander T2. Maar wij komen een dergelijke situatie niet tegen en slagen er niet in de prestaties van het model te verbeteren. Dit heeft vele doelen, zoals het bevooroordelen van het model om het domein te trainen.
Met transfer learning moeten we de gegevens van één getraind model kunnen gebruiken voor nieuwe verwante modellen. Als we meer gegevens hebben in taak T1, kunnen we de kennis zoals kleur en grootte van het hemd gebruiken om het model dat minder kennis heeft, d.w.z., T2. Wanneer er een probleem is in het computer vision domein, kunt u de kenmerken overbrengen naar verschillende taken en de kennis vergroten. Met andere woorden, je kunt de kennis van de ene taak gebruiken als input voor de andere om nieuwe taken uit te voeren.

Transfer Leren Strategieën

Transfer learning heeft talrijke leertechnieken en strategieën, die u kunt toepassen op uw projecten, afhankelijk van het domein, de beschikbare gegevens en de taken. Hieronder vindt u enkele van die strategieën en technieken:

1. Transfer leren zonder toezicht

Het doeldomein en de bronnen zijn gelijkaardig, terwijl de taken en activiteiten verschillend zijn. In dit geval zijn de gelabelde gegevens in geen enkel domein beschikbaar. Inductieve en niet gesuperviseerde technieken zijn vergelijkbaar voor het doeldomein.

2. Transductief transferleren

In deze conditie zijn de doel- en brontaken gelijkaardig, maar er zijn verschillen in gerelateerde domeinen. Er is een overvloed aan gelabelde data in het brondomein, terwijl er geen data is in het doeldomein. Je kunt het indelen in verschillende subcategorieën, verwijzend naar ongelijksoortige settings.

3. Inductief transferleren

Doel- en brondomein zijn hetzelfde, maar hun beide taken zijn verschillend. De algoritmen gebruiken de inductieve biases van het brondomein en helpen bij het verbeteren van de doeltaak. Je kunt de gelabelde data verdelen in twee categorieën autodidactisch leren en multitask leren.

Transfer Leren voor Deep Learning

Alle bovenstaande strategieën zijn algemene benaderingen die we kunnen toepassen in het machine learning model. Dit roept verschillende vragen op, zoals “kunnen we transfer learning toepassen in de deep learning context? Deep learning modellen helpen bij de inductieve leermodellen. Een inductief leeralgoritme kan helpen bij het in kaart brengen van trainingsvoorbeelden.
Het model leert bijvoorbeeld mapping door de klasse labels en input features te classificeren. Dit soort leermodellen generaliseert ongeziene gegevens. Bovendien zal het algoritme werken volgens de veronderstellingen, afhankelijk van de verdeling van de trainingsgegevens.
Deskundigen noemen deze aannames inductieve bias. Met behulp van inductieve aannames of bias kunnen meerdere factoren worden gekarakteriseerd. De hypothesenruimte beperkt bijvoorbeeld het zoekproces, en zal een grote invloed hebben op het leerproces van het model op basis van een bepaald domein en een bepaalde taak.

Conclusie

Concluderend kunnen we stellen dat tal van onderzoeksrichtingen de overdracht van het leren aanbieden. Vele toepassingen die de kennis helpen overdragen hebben modellen nodig om nieuwe taken in de nieuwe domeinen aan te nemen.