☰ Menu
× Expérience Professionelle Diplômes Compétences en programmation Publications Réseaux sociaux English version
Avatar

Maxime Portaz

Research Scientist - Deep Learning

Paris, France

webcontact@portaz.fr

github


Avatar

Maxime Portaz

Docteur en Machine Learning

Paris, France

webcontact@portaz.fr

github


Expérience Professionelle Diplômes Compétences en programmation Publications Réseaux sociaux English version


Skills

  • Machine Learning Algorithms
  • Deep Learning
  • Predictive Modeling
  • Big Data and Transfer Learning

Technical Skills

Python Programming

90%

Pytorch

90%

C/C++ Programming

70%

OpenCV

70%

Expérience professionelle

Ingénieur de recherche - Trax Retail
Mai 2020 - Actuellement

Trax Retail - Paris
Membre de l'équipe Innovation. Creation de nouveau outils de machine learning pour le retail.

LANGAGES : Python, NodeJS
DOMAINES : Machine earning, Deep Learning, Touch Sensor, multimodal data
OUTILS : Pytorch, OpenCV, Tensorflow, AWS

Ingénieur de recherche - Qwant Research
Nov. 2018 - Mai 2020

Qwant Research - Paris
Membre de Qwant Research, sur la partie recherche d'images, avec pour but d'étuder les nouvelles approches de Machine Learning pour la representation d'images et de texte. Les problématiques de classification de requètes, d'images et de documents sont également des éléments clefs dans la création d'un moteur de recherche d'images.

  • Deep Learning
  • Embeddings de textes et images
  • Moteur de recherche d'image, par similarité image/image, image/texte et texte/texte
  • Programmation sur GPU et Graphcore IPUs
LANGAGES : Python, C++, Javascript
DOMAINES : Indexation d'images, Deep Learning, Traitement de la langue (Natural Language Processing), représentation d'images/documents et de requètes.
OUTILS : Pytorch, Vespa, Kubernetes, NVidia DGX, Microsoft Azure, Graphcore IPUs

Chercheur doctorant
Sept 2015 - Oct. 2018

Laboratoire d'informatique de Grenoble. J'ai travaille sur le projet GUIMUTEIC en recherche et développement
Principalement centré sur le Deep Learning et la Vision par ordinateur, j'ai aussi travaillé sur l'interaction homme-machine et la construction de base de données pour l'apprentissage. Ce qui a donner un certain nombre de publications qui se basent notamment sur les domaines suivants :

  • Reconnaissance de scène et de gestes avec des réseaux de neurones profonds
  • Recherche d'image et Identification d'instance avec de l'apprentissage à se classer (learn to rank)
  • Big-data et transfert d'apprentissage sur petites collections de données
  • Création de base de données et annotation pour l'apprentissage
LANGAGES: Python, C++
OUTILS: Pytorch, OpenCV, Tensorflow

Encadrement de Stagiaires :

  • Manon Schmitt - 2018 - Fusion d'image et masques d'image
  • Matthias Kohl - 2017 - Apprentissage des représentation d'image, Loss triple, Detection automatique de régions
  • Chi Xu - 2016 - Extraction de descripteurs d'image, Sac de mots visuels (BoW)
Enseignant
Sept 2015 - Juin 2018

Université Grenoble Alpes

2018 : Algorithmique et programmation python
2017 : Introduction à Unix et à la programmation C
2016 : Introduction à Unix et à la programmation C
Ingénieur de recherche
Juil. 2015 - Août 2015

Equipe Pervasive Interaction - Inria Grenoble.

LANGAGES : C++
DOMAINES : modèles 3D, génération de scènes, fusion de données
OUTILS : OpenGL

Stage Recherche
Nov. 2014 - Juin 2015

Equipe Pervasive Interaction - Inria Grenoble. Création de figurines expressives et intéractives pour le design narratif.

LANGAGES : C++, Javascript(nodeJS)
DOMAINES : Vision par Ordinateur, fusion de données, suivi d'objets, données multimodales
OUTILS : Flux optique, capteurs IMU, OpenCV, Kinect

Stage Recherche
2014

Equipe Prima - Inria Grenoble. Jeu d'imitation entre humain et robot humanoïde (NAO) basé sur le squelette.

LANGAGES : Python, C++
DOMAINES : Robotique, Vision par Ordinateur, visualisation 3D
OUTILS : Blender Game Engine, NAOqi, Kinect SDK

Stage ingénieur
2013

Equipe Prima - Inria Grenoble. Partitionnement (Clustering) et classification de données multimodales pour la détection d'intention dans l'interaction humain-robot.

LANGAGES : Python
DOMAINES : Machine Learning, apprentissage supervisé et non supervisé
OUTILS : Scikit-learn


Diplômes

Université Grenoble Alpes
2015 - 2018

Doctorat - Recherche d'information multimédia


Ecole Polytechnique - Paris
2017

Data Science Summer School


Computer Vision Summer School
2016

Sicile - ICVSS 2016


Ensimag - UGA
2013 - 2015

Master - MOSIG Master Of Science In Grenoble - Graphismes, Vision et Robotique


Université Joseph Fourier
2011 - 2013

Licence - Mathématiques et Informatique



Compétence en programmation

Langages favoris

Python

90%

C/C++

80%

Golang

60%

CUDA

60%

C#

50%


Outils préférés

Pytorch

90%

OpenCV

80%

Unity

60%

Blender

50%

Caffe

40%

Systèmes d'opération

Linux

90%

Windows

90%

Android

60%


Publications

Graphcore C2 Card performance for image-based deep learning application: A Report

Ilyes Kacher, M. Portaz, Hicham Randrianarivo, Sylvain Peyronnet

QISS : an open source image similarity search engine.

Vidéo de démonstation
M. Portaz, Ilyes Kacher, Hicham Randrianarivo, Adrien Nivaggioli, Sylvain Peyronnet

Image search using multilingual texts: a cross-modal learning approach between image and text.

M. Portaz, Hicham Randrianarivo, Adrien Nivaggioli, Estelle Maudet, Christophe Servan (LIUM), Sylvain Peyronnet (ELM)

Réseaux profonds pour l'identification de gestes et d'objets. Accès à de l'information en mobilité par l'image pour la visite de musées.

M. Portaz, Thèse

Object instance identification with fully convolutional networks,

M. Portaz, M. Kohl, G. Quénot, J-P. Chevallet, P. Mulhem, In Multimedia Tools and Applications (MTAP) 2018

Fully Convolutional Network and Region Proposal for Instance Identification with egocentric vision,

M. Portaz, M. Kohl, G. Quénot, J-P. Chevallet, In IEEE International Conference on Computer Vision (ICCV) 2017

Figurines, a multimodal framework for tangible storytelling,

Vidéo de démonstation
M. Portaz, Maxime Portaz, Maxime Garcia, Adela Barbulescu, Antoine Begault, Laurence Boissieux, Marie-Paule Cani, Rémi Ronfard, Dominique Vaufreydaz, International Workshop on Child Computer Interaction (WOCCI) 2017

Construction et évaluation d’un corpus pour la recherche d’instances d’images muséales,

M. Portaz, J. Poignan, M. Budnik, P. Mulhem, J-P. Chevallet, In CORIA 2017 p. 17-34)

A system for creating virtual reality content from make-believe games,

A. Barbulescu, M. Garcia, A. Begault, M. P. Cani, M. Portaz, A. Viand, D. Vaufreydaz In Virtual Reality (VR), 2017 IEEE p. 207-208.

Making Movies from Make-Believe Games,

A. Barbulescu, A. Begault, L. Boissieux, M-P. Cani, M. Garcia, M. Portaz, V. Alexis, H. Pierre, D. Romain, R. Ronfard, D. Vaufreydaz. In WICED 2017.

MRIM-LIG at ImageCLEF 2016 Scalable Concept Image Annotation,

M. Portaz, M. Budnik, P. Mulhem, J. Poignan,
In CLEF2016 Working Notes,2016.

Etude préliminaire à la recherche de photographies muséales en mobilité,

M. Portaz, P. Mulhem, J-P. Chevallet, In CORIA 2016, p. 335-344.

The Grenoble system for the social touch challenge at ICMI 2015,

V-C. Ta, W. Johal, M. Portaz, E. Castelli, D. Vaufreydaz, In Proceedings of the 2015 ACM on International Conference on Multimodal Interaction. ACM, 2015. p. 391-398.