Scipy Softmax

Scipy Softmax

Python est le langage de programmation le plus polyvalent et le plus reconnu de tous les autres langages de programmation existants. Python est le plus apprécié par les programmeurs amateurs parce que Python a un script relativement simple qui ressemble le plus à la langue anglaise. De plus, ce langage est considéré comme portable et un langage informatique multiplateforme car Python ne nécessite aucune dépendance sur des systèmes d'exploitation spécifiques pour que son interprète fonctionne correctement.

Scipy est un package qui comprend une vaste liste de langages de programmation Python. Ce package est utilisé pour construire et former des réseaux de neurones artificiels et des modèles d'apprentissage en profondeur. Il permet également les calculs mathématiques des programmes. Scipy «softmax» représente une fonction qui est utilisée pour le ND-Array dans les programmes pour appliquer la transformation Softmax sur les lignes du ND-Array et calculer la somme le long des lignes du tableau.

Pour comprendre le softmax, nous pouvons supposer que la fonction Softmax peut transformer les lignes ou tous les éléments de la table ND et peut calculer l'exponentielle de l'élément individuel en prenant sa division avec la somme de l'exponentielle de tous les éléments des lignes /Colonnes. Il s'agit d'une fonction mathématique, et il est responsable de la conversion d'un vecteur qui est en nombre en un vecteur qui est en probabilités. Cette probabilité de chaque élément est proportionnelle à l'échelle / plage de chacune de la valeur de l'élément dans ce vecteur et est donnée par l'équation comme suit:

$ softmax (x) = np. exp (x) / sum (np. Exp (x))

SoftMax est une fonction d'activation, et elle généralise ou se rapproche de l'ensemble des valeurs dans certains seuils. Si la valeur est inférieure au seuil, elle aura une importance différente de la valeur égale ou supérieure au seuil qui entre dans la catégorie différente. Dans les réseaux de neurones artificiels, la fonction d'activation décide quel neurone est tiré ou s'activer pour tomber dans la sortie.

Procédure:

Dans l'article, nous implémenterons la fonction d'activation Softmax du Scipy. Nous explorerons comment cette fonction fonctionne et quel avantage il peut offrir dans le programme. Nous apprendrons également la syntaxe de cette fonction et effectuerons deux exemples pour obtenir une bonne pratique sur la fonction.

Syntaxe:

$ scipy. est spécial.softmax (x, axe = aucun)

Les paramètres du softmax sont les «x» et «axe» où «x» définit le tableau ou l'ensemble de données sur lequel nous appliquons l'activation Softmax et «l'axe» est l'axe le long de lequel nous calculons cette fonction Softmaxax. Sa valeur par défaut est égale à aucun.

Valeur de retour:

Puisque les fonctions convertissent la valeur de chaque élément dans le tableau en sa probabilité, la valeur de retour de cette fonction est une valeur unique et elle est «1» car elle prend la somme maximale et d'approximation de toutes les valeurs exponentielles dans les lignes.

Exemple:

Utilisez la fonction Softmax sur un tableau et examinons la sortie si elle vient exactement comme nous l'avons réclamé dans la description de la fonction. Accédez à la «collaboration Google». Il s'agit d'une plate-forme Python en ligne et fournit des packages préinstallés avec une allocation GPU pour gagner du temps et du stockage système. Pour travailler avec Google Collab, nous créons un nouveau ordinateur portable et l'enregistrons dans Google Drive. Pour commencer par l'exemple, importons certains packages nécessaires à partir du package préinstallé de Python pour charger les modules pertinents qui permettent le fonctionnement de la fonction «softmax ()».

Deux des bibliothèques les plus importantes sont incluses dans le programme, le «Numpy» et le «Scipy. bibliothèques spéciales ». Nous importons Numpy comme le «NP». Le scipy.Special est importé comme le «softmax». Ce softmax est maintenant ajouté à notre programme. Nous pouvons maintenant l'utiliser et faire fonctionner notre programme sans effort. Maintenant, nous créons un ND-Array afin que nous puissions appliquer la fonction d'activation Softmax dessus. Mais avant cela, nous faisons une autre étape et c'est de prédéfinir les valeurs de flotteur dans notre tableau qui sont affichées à quelle précision ou jusqu'à quel nombre de lieux après la décimale. Cela se fait en écrivant la commande comme «NP.set_printoptions (précision = 4) »dans le programme. La fonction set_printoptions fait cette précision. Ici, la précision égale à «4» signifie que les valeurs impriment à quatre décimales.

Avec cette étape terminée, nous déclarons maintenant une variable nommée «Array». Nous attribuons un tableau tridimensionnel à cette variable. Pour créer le tableau tridimensionnel, nous appelons le «NP. Méthode Array ([]) "comme" NP. Array ([[1, 0.5, 0.2, 3], [1, -1, 7, 3], [2, 12, 13, 3]]) ». Ceci est le tableau tridimensionnel car ce tableau contient trois colonnes et trois rangées. Ce tableau dans l'exemple représente l'ensemble de données puisque l'ensemble de données est également un tableau multidimensionnel. Nous appliquons la fonction Softmax sur ce tableau comme «softmax (tableau)» et enregistrons les résultats de cette fonction dans une autre variable «résultat». Ou nous imprimons directement les résultats à l'aide de la fonction «print ()». Le code de ce programme s'affiche dans l'extrait ci-joint suivant:

de Scipy.Softmax d'importation spéciale
Importer Numpy comme NP
NP.set_printoptions (précision = 4)
array = np.Array ([[1, 2, 8, 3],
[1, -1, 2, 3],
[2, 11, 14, 3]])
résultat = softmax (tableau)
Imprimer (résultat)
résultat.somme()

Observez à partir de la sortie que la fonction a converti la valeur de la ligne qui était en nombre dans les valeurs exponentielles exactement comme nous l'avons discuté plus tôt dans l'introduction de ce sujet. Maintenant, pour vérifier un autre point que cette fonction prend la somme de ces valeurs et renvoie la valeur égale à «1», nous passons les résultats de la fonction Softmax à la fonction de somme comme «Résultat.sum () ”et afficher les résultats. Le code de cette explication est donné dans la sortie suivante:

La sortie renvoie la valeur «1» après avoir calculé la somme, ce qui signifie que le deuxième point est également vérifié.

Conclusion

L'article met la fonction «softmax» de Scipy à l'honneur. L'article donne un aperçu plus profond du concept de la fonction d'activation Softmax et pourquoi nous en avons besoin dans nos modèles. Ensuite, il démontre la méthode pour appliquer la fonction Softmax sur le ND-Array pour vérifier les résultats qui ont été discutés dans l'explication du sujet.