summaryrefslogtreecommitdiff
path: root/sem_4/projs4/notes.txt
diff options
context:
space:
mode:
Diffstat (limited to 'sem_4/projs4/notes.txt')
-rw-r--r--sem_4/projs4/notes.txt76
1 files changed, 76 insertions, 0 deletions
diff --git a/sem_4/projs4/notes.txt b/sem_4/projs4/notes.txt
new file mode 100644
index 0000000..62f9918
--- /dev/null
+++ b/sem_4/projs4/notes.txt
@@ -0,0 +1,76 @@
+
+Début du projet : 22 janvier 2018
+Fin du projet : 27 avril 2018
+Consigne des rapports (dans la plateforme Moodle) : 5 mai 2018
+Date limite pour le rendu des livrables (aux encadrants) : 5 mai 2018
+Soutenances : 28-30 mai 2018
+
+
+
+On est acutellement en Gradient descent
+On voudrait passer en Stochastic gradient descent
+Batch size ( 10 )
+SUr les 100 exemples du jeu de test, on va en faire passer que Bs
+augmenter la vitesse de chaque epoque en limitant le nombre de fois que l'on backward
+( taille de training set / BS)
+
+On calcule la moyenne des erreur pour BS test successif, PUIS on backPropagation
+
+On cherche alors a tester laquel des methodes est plus efficace que l'autre, à quel niveau
+
+Integrer d'autres methodes d'FonctionActivatio:
+atest : RELU
+relu = max(0,z) avec z = Wx + b
+
+Permettre de choisir la fonction d'activation et la fonction de calcul d'erreur ( actuellement
+erreur quadratique ( attendut-output)^2 ( plus adaptée a de la regression ))
+On pourrait utiliser
+Cross Entropy :
+-Sigma(attendu*log(output))
+
+
+
+Seance finale :
+
+
+Rapport :
+intro : presenter d'abord la classification supervisée quesaquo, puis parler du cahier des charges
+Classification multiclasse : chaque element n'est que dans une classe max
+
+ajouter la gueule de la sigmoide dans le 2.1.x
+Retirer la partie code de la 2.x pour tout recentrer dans une partie dedié au code
+mettre le vocabulaire ( lexique ) en entrée du rapport plutot
+
+partie 3 :
+d'abord le modele puis l'implementation
+ajouter la partie formelle ( backprop dans un reseau )
+macro latex piur les fleches : \rightarrow
+macro \mathit....
+++ Partie experiences, experimentation avec les jeux de données, détailler les jeux de donnés
+++ aprler des gradient descent
+++ citer les platefrome d'apprentissage
+kaffe pythorch desrtflow?
+parler de la precision des descripteur
+
+
+
+pour la presentation : 15 minutes, 7 transparents: dire bien qui a travaillé sur quelle Partie,
+ptite demo avec le JS deja enregistré ( qui tombe sur des resultat sympathique )
+
+transprent :
+1 : poser le probleme
+2 : dire qu'on est pas les seuls, big data, deeplearning, plateforme existantes ( On implemente notre plateforme)
+3 : On demarre
+un peu sur le neuronne
+reseau methode,
+implementation
+diagrame UML
+/!!!!\ experiences, montrer des jeux de de données differents jeu complexe => modele complexe
+
+demo (2/3min)
+conclusion + ouverture / perspective
+
+Prochain rendu du rapport le 2/3
+
+
+L'an prochain : meme difficulté ( voire un peu moins )