Lorsqu’un enfant naît, il lui faut un certain temps pour développer sa capacité à parler et à comprendre. Les enfants n’apprennent que la langue que les personnes qui les entourent vont parler. Les humains peuvent rapidement apprendre des langues par eux-mêmes, mais les ordinateurs ne peuvent pas faire de même. Par exemple, vous pouvez facilement comprendre la différence entre un chat et un chien, un homme et une femme, etc.
Cela se produit parce que nos réseaux neuronaux sont différents des réseaux neuronaux artificiels dont disposent les machines. Les ordinateurs n’apprennent pas les langues de la même manière que les humains. Ils utilisent des techniques d’intégration de mots pour comprendre le langage des humains.
Qu’est-ce que l’intégration des mots ?
La définition simple de l’intégration des mots est la conversion de textes en chiffres. Pour que l’ordinateur comprenne la langue, nous convertissons le texte sous forme de vecteurs afin que les ordinateurs puissent développer des connexions entre les vecteurs et les mots et comprendre ce que nous disons. Avec l’incorporation de mots, nous résolvons les problèmes liés au traitement du langage naturel.
Comprendre la PNL
Le traitement du langage naturel aide les machines à comprendre et à développer la capacité d’écrire, de lire et d’écouter ce que nous disons. Google, DuckDuckGo et de nombreux autres navigateurs utilisent la PNL pour réduire les barrières linguistiques entre les humains et les machines. En outre, Microsoft Word et Google Translate sont des applications de la PNL.
Algorithmes d’intégration des mots
L’incorporation de mots est une représentation vectorielle et nécessite des techniques et des algorithmes d’apprentissage automatique. Ces algorithmes utilisent des réseaux de neurones artificiels et des données pour générer les connexions de différents mots. Par exemple, si un modèle apprend les mots “Roi” et “Reine”, les formes vectorielles seront reliées entre elles. Cela aide la machine à différencier et à relier les deux mots. Nous comprenons ci-dessous trois algorithmes courants que vous pouvez utiliser dans l’apprentissage machine pour l’intégration des mots.
1. Word2Vec
Word2Vec est l’algorithme le plus populaire pour l’intégration des mots. Cet algorithme utilise les réseaux de neurones pour apprendre l’incorporation plus efficacement. Cet algorithme est en fait une série d’algorithmes. Vous pouvez utiliser ces algorithmes pour des tâches de PNL. Word2Vec n’utilise qu’une seule couche cachée et la connecte au réseau de neurones. Tous les neurones linéaires sont les couches cachées dans les neurones. Pour entraîner le modèle, la couche d’entrée comprendra le nombre de neurones égal aux mots du vocabulaire. La taille de la couche d’entrée et de la couche de sortie reste la même. Cependant, la taille de la couche cachée est définie en fonction des vecteurs des dimensions des mots résultants. Vous pouvez effectuer l’incorporation de mots avec Word2Vec par deux méthodes. Dans ces deux méthodes, vous avez besoin de réseaux de neurones artificiels. Ces méthodes sont les suivante:
– CBOW ou Common Bag of Words
Dans cette méthode, chaque mot est une entrée, et le réseau neuronal prédit le mot qui se rapporte au contexte. Par exemple, “Je rentre chez moi en bus”. Dans cet exemple, nous allons entrer le mot bus dans le réseau de neurones avec un contexte pour aller ou rentrer à la maison. Ensuite, la machine va générer un vecteur qui relie “voyager à la maison” avec le bus représenté comme la source du voyage.
– Écrémez Gram
Skim Gram utilise la même astuce qu’un sac de mots commun ou tout autre algorithme d’apprentissage automatique. Comme nous avons des mots non étiquetés, l’intégration des mots est essentiellement un apprentissage semi-supervisé. Dans cette méthode, l’algorithme utilise des mots voisins et les étiquette en conséquence.
2. GloVe
L’algorithme Global Vectors for Word Representation ou GloVe est assez similaire à Word2Vec. Cependant, la méthode est un peu différente. GloVe ne prend en compte que les informations contextuelles sur la base de 1-1. Cela signifie que GloVe ne crée qu’une matrice liée au mot à mot, qui inclut la probabilité P (a | b) de voir le mot k autour du mot b.
L’objectif principal de cette technique est de trouver la représentation des deux vecteurs de manière à générer la probabilité logarithmique de leurs produits ponctuels égale à la cooccurrence. Les résultats sont excellents pour relier les mots dans le contexte l’un à l’autre.
3. Couche d’incorporation
C’est la première couche cachée du réseau neuronal artificiel. Cette couche doit spécifier trois augmentations.
Diminution d’entrée
Cela représente la taille du vocabulaire dans les données textuelles. Par exemple, si vous avez des données avec un encodage d’entier et des valeurs de 0 à 10, alors la taille du vocabulaire sera de 11.
Diminution de la sortie
Ils représentent la taille de l’espace vectoriel. L’espace vectoriel serait celui des mots incorporés. Il peut être de 32, 100 ou plus.
Longueur d’entrée
Cela représente la longueur des séquences d’entrée. Par exemple, si les mots dans vos documents d’entrée sont jusqu’à 1000, alors cette valeur sera également 1000.
Conclusion
L’intégration des mots est essentielle pour l’apprentissage des machines, car elle aide les ordinateurs à comprendre votre langue. Il contient divers algorithmes qui traitent les mots différemment, mais son objectif principal est d’aider la machine à apprendre les langues. Les ordinateurs ne peuvent pas comprendre ce que nous demandons. Au lieu de cela, pour chaque mot, les ordinateurs sont encodés avec une représentation vectorielle qui se rapporte à d’autres mots selon le contexte.