From 9fe033ea88c2f705ec18c232873d056e0c229d72 Mon Sep 17 00:00:00 2001 From: Gaspard Coulet Date: Wed, 28 Apr 2021 23:05:53 +0200 Subject: Initial commit --- sem_4/projs4/notes.txt | 76 ++++++++++++++++++++++++++++++++++++++++++++++++++ 1 file changed, 76 insertions(+) create mode 100644 sem_4/projs4/notes.txt (limited to 'sem_4/projs4/notes.txt') diff --git a/sem_4/projs4/notes.txt b/sem_4/projs4/notes.txt new file mode 100644 index 0000000..62f9918 --- /dev/null +++ b/sem_4/projs4/notes.txt @@ -0,0 +1,76 @@ + +Début du projet : 22 janvier 2018 +Fin du projet : 27 avril 2018 +Consigne des rapports (dans la plateforme Moodle) : 5 mai 2018 +Date limite pour le rendu des livrables (aux encadrants) : 5 mai 2018 +Soutenances : 28-30 mai 2018 + + + +On est acutellement en Gradient descent +On voudrait passer en Stochastic gradient descent +Batch size ( 10 ) +SUr les 100 exemples du jeu de test, on va en faire passer que Bs +augmenter la vitesse de chaque epoque en limitant le nombre de fois que l'on backward +( taille de training set / BS) + +On calcule la moyenne des erreur pour BS test successif, PUIS on backPropagation + +On cherche alors a tester laquel des methodes est plus efficace que l'autre, à quel niveau + +Integrer d'autres methodes d'FonctionActivatio: +atest : RELU +relu = max(0,z) avec z = Wx + b + +Permettre de choisir la fonction d'activation et la fonction de calcul d'erreur ( actuellement +erreur quadratique ( attendut-output)^2 ( plus adaptée a de la regression )) +On pourrait utiliser +Cross Entropy : +-Sigma(attendu*log(output)) + + + +Seance finale : + + +Rapport : +intro : presenter d'abord la classification supervisée quesaquo, puis parler du cahier des charges +Classification multiclasse : chaque element n'est que dans une classe max + +ajouter la gueule de la sigmoide dans le 2.1.x +Retirer la partie code de la 2.x pour tout recentrer dans une partie dedié au code +mettre le vocabulaire ( lexique ) en entrée du rapport plutot + +partie 3 : +d'abord le modele puis l'implementation +ajouter la partie formelle ( backprop dans un reseau ) +macro latex piur les fleches : \rightarrow +macro \mathit.... +++ Partie experiences, experimentation avec les jeux de données, détailler les jeux de donnés +++ aprler des gradient descent +++ citer les platefrome d'apprentissage +kaffe pythorch desrtflow? +parler de la precision des descripteur + + + +pour la presentation : 15 minutes, 7 transparents: dire bien qui a travaillé sur quelle Partie, +ptite demo avec le JS deja enregistré ( qui tombe sur des resultat sympathique ) + +transprent : +1 : poser le probleme +2 : dire qu'on est pas les seuls, big data, deeplearning, plateforme existantes ( On implemente notre plateforme) +3 : On demarre +un peu sur le neuronne +reseau methode, +implementation +diagrame UML +/!!!!\ experiences, montrer des jeux de de données differents jeu complexe => modele complexe + +demo (2/3min) +conclusion + ouverture / perspective + +Prochain rendu du rapport le 2/3 + + +L'an prochain : meme difficulté ( voire un peu moins ) -- cgit v1.2.3