« À partir des données brutes collectées, je conçois des modèles pour les analyser, les visualiser et proposer de nouveaux services aux utilisateurs. » - Apec.fr - Cadres

Vous êtes actuellement sur le site Cadres. Changer de site ?

Informatique

lu 198 fois | publié le 28/05/2014

Témoignage · « À partir des données brutes collectées, je conçois des modèles pour les analyser, les visualiser et proposer de nouveaux services aux utilisateurs. »

Thomas Cabrol, Chief data scientist, Dataiku

Titulaire d’un DESS en analyse décisionnelle de la relation client à l’Université de Montpellier en 2003, Thomas Cabrol occupe un poste de consultant data mining chez TMIS Consulting. Durant 3 ans, il analyse et modélise le comportement d’achat des abonnées d’Orange France. En 2006, il rejoint Catalina Marketing en tant que senior data miner, une société spécialisée dans le couponning : il travaille au prototypage et au développement des solutions permettant aux distributeurs et industriels d’améliorer leur connaissance des clients et leur marketing relationnel. En 2008, recruté par Apple Europe comme data mining manager, il est chargé de développer l’intelligence spatiale et le géomarketing. En 2010, il encadre l’équipe Data, chez Is Cool Entertainement, une entreprise spécialisée dans le social gaming sur Facebook. Avec son équipe, il analyse le comportement de centaines de milliers de joueurs quotidiens, créant l’infrastructure analytique, utilisant des outils de big data, et mettant en place les outils d’analyse, de profiling et de reporting.

En 2012, il participe à la création de Dataiku, un « Data Labs », avec 3 autres spécialistes du Big Data, et occupe la fonction de chief data scientist.

« En entreprise la construction d'un tel laboratoire de données peut s'avérer difficile, même si de nombreuses technologies sont disponibles en open-source ; en outre, les compétences en sciences de données et en technologies Hadoop étant rares, nous proposons aux entreprises de bénéficier des nouvelles techniques de collecte de données brutes, mais également d’expertise dans la modélisation et l’analyse de données. » Il effectue également des missions de consulting auprès de clients sur ce type de problématique.

En tant que Data scientist, Thomas Cabrol intervient sur le développement de modèles visant à exploiter de manière opérationnelle des données volumineuses, non structurées (avis de consommateurs, parcours de navigation, influence sur les réseaux sociaux, données de géolocalisation ou issues de l’open data…). « Une différence très importante entre le data miner et le data scientist réside dans la maîtrise de la composante informatique: je dois en effet travailler directement sur Hadoop pour faire des calculs, par exemple pour prototyper la recommandation d’un produit. Je maîtrise des langages de développement et de scripting comme Python ou Ruby pour transformer des données peu analysables en l’état».

« Alors que le spécialiste B.I. a pour objectif de produire des rapports et a une activité tournée vers le reporting, le data scientist a pour objectif d’innover au niveau des produits, des fonctionnalités, des services autour de la donnée, à partir de la donnée brute. » Le data scientist est capable d’analyser et d’exploiter des nouveaux types de données quels que soient le volume et la complexité des informations à traiter.

« L’analyse des données dans ce domaine est très éloignée de celle qui est réalisée habituellement en entreprise, car les algorithmes et modèles statistiques utilisés évoluent très vite ; elles sont faites pour aider les directions marketing à extraire l’information qui leur permettra de répondre au mieux aux besoins des clients, et donc de gagner des parts de marché. Certaines approches du big data nécessitent l’analyse de profils sociaux, en modélisant les interactions au sein de communautés sur Facebook, par exemple. ».

Selon Thomas Cabrol, le concept d’équipe pluridisciplinaires de 3 ou 4 spécialistes permet d’avoir des compétences optimisées : « Mes collègues sont experts de l’architecture de plate-forme, alors que je suis davantage orienté vers l’analyse et l’extraction des données et des connaissances à partir des données ; dans le big data, il faut être à la fois spécialiste de l’architecture des données, du développement informatique, de l’algorithmique, de la modélisation statistique, du « machine learning »1 mais également du marketing (pour anticiper sur les besoins des clients.) ».

Le big data est un domaine neuf et en pleine évolution, avec de nouveaux produits fréquemment basés sur des technologies open source : « tous les algorithmes sont directement disponibles et exploitables, de nouvelles méthodes voient le jour régulièrement, il est donc indispensable d’effectuer une veille permanente, notamment technologique, ainsi que de renforcer ses compétences marketing. ».

 

1 - Ou apprentissage automatique : développement, analyse et implémentation de méthodes automatisables qui permettent à une machine (au sens large) d'évoluer grâce à un processus d'apprentissage, et ainsi de remplir des tâches qu'il est difficile ou impossible de remplir par des algorithmes classiques.