L’ESN Alteca fait l’acquisition de Datafab

 

Lyon, le 5 avril 2023 – L’ESN de proximité Alteca vient de faire l’acquisition à 100 % du pure-player Datafab. Avec ce rachat, Alteca poursuit sa croissance et renforce son expertise en matière d’ingénierie data. Les synergies entre les deux entités vont bénéficier à leurs clients respectifs, notamment dans le secteur bancaire, de l’assurance et du retail.

Spécialiste en Data ingénierie, Data architecture et Data Science/IA, Datafab compte sur une cinquantaine de talents pour mener à bien ses missions depuis ses bureaux de Paris et au Luxembourg. L’organisation fondée par Laure Dupin et Denis Vergnaud repose sur cinq piliers : l’agilité, le DevSecOps, le Cloud, la production readiness et la solution craftsmanship. Depuis plus de 8 ans, l’entreprise a délivré plus de 200 projets.

 

Alteca et Datafab : un partenariat à forte valeur notamment pour le secteur de la banque

L’expertise de Datafab sur le terrain de l’ingénierie de la donnée est éprouvée, en particulier dans le milieu bancaire. Parmi ses clients, on retrouve des acteurs majeurs de la banque mais aussi des acteurs de la distribution et du luxe. Son expertise unique dans le domaine de la Data a suscité l’intérêt d’Alteca, entreprise de services numériques française spécialisée dans le développement d’applications métier, qui, depuis sa création en 1996, accompagne des clients du CAC 40 dans la modernisation de leur système d’information.

Au cœur des ambitions d’Alteca figure la confortation de son déploiement sur le secteur de la banque. Cette dernière et Datafab travaillent déjà toutes deux avec les plus gros acteurs du secteur bancaire. Cette alliance va permettre d’aller plus loin sur ce terrain et va permettre aux deux acteurs de proposer des offres à forte valeur, communes à leurs clients. Mais aussi permettre aux collaborateurs des deux entreprises de se former mutuellement et de partager des connaissances. Ces synergies vont marquer un temps fort dans le développement professionnel des consultants et dans la croissance de leurs entreprises respectives.

 

Une culture d’entreprise commune et un maillage territorial renforcé

« Cette acquisition nous permet de franchir une nouvelle étape de notre développement. Avec Alteca, nous partageons des valeurs communes et fondamentales, notamment en termes de management. Nos équipes tiennent à leur agilité et à leur autonomie, des points importants dans le choix qui a été le nôtre », explique Laure Dupin, Co-fondatrice et Dirigeante de Datafab. « Bien sûr, c’est aussi une occasion de passer à la prochaine étape : celle où nous travaillerons sur des projets d’envergure, à engagement de résultat, combinant nos expertises et celles d’Alteca. »


De gauche à droite : Guillaume Mougin, Laure Dupin et Denis Vergnaud

Cette acquisition va permettre de renforcer l’agence parisienne d’Alteca et son expertise sur le Big Data. Datafab de son côté, va pouvoir se développer en région en bénéficiant d’un accès au portefeuille de clients d’Alteca. Les deux acteurs vont pouvoir accroître l’envergure des projets qu’ils vont mener et déployer des offres relatives à la Data sur tout le territoire français.


Guillaume Mougin, Directeur Général d’Alteca
, commente cette annonce : « Nous nous félicitons de cette acquisition qui nous permettra, à nous comme à Datafab, d’élargir nos horizons et de mieux servir nos clients, en capitalisant sur nos points forts respectifs. Pour Alteca, c’est une consolidation de notre positionnement, notamment dans la banque et le retail, et une opportunité de croissance du business. Le renforcement de l’expertise sur la Data nous permet de répondre rapidement à nos clients qui ont des besoins stratégiques dans ce domaine, qui constitue le cœur de métier de Datafab. Pour nos collaborateurs, cela permettra aussi des missions plus riches et plus variées alliant des compétences en Cloud à de l’ingénierie de donnéesLe partage de l’intelligence collective sera notre méthode et nous allons grandir ensemble pour continuer à nous déployer sur le marché

 

A propos de Alteca

Entreprise de Services Numériques (ESN) française, Alteca compte 650 collaborateurs répartis dans une dizaine de villes en France (Lyon, Paris, Dijon, Grenoble, Lille, Nantes, Toulouse, Montpellier) et au Luxembourg. Au sein de cette entreprise familiale, les collaborateurs mettent la cocréation au cœur de leur démarche et des solutions d’ingénierie informatique qu’ils proposent à leurs clients pour accompagner leur transformation et moderniser leurs systèmes d’information.

Créée en 1996 à Lyon, Alteca combine la connaissance fonctionnelle des métiers de ses clients avec une solide expertise technique. L’entreprise est certifiée « Happy At work » et « Tech At Work », labels qui valorisent les entreprises dont les salariés sont les plus motivés et épanouis au travail. Pour Alteca, ces labels ont été renouvelés chaque année depuis 2019.

Pour plus d’informations, consultez le site www.alteca.fr

 

A propos de Datafab

DATAFAB est un pure player en Ingénierie de la Data détenu par le groupe Alteca. Leur équipe d’experts en Ingénierie Data compte 50 collaborateurs agiles et autonomes, répartis en France et au Luxembourg. Depuis 2015, les équipes de Datafab ont livré plus de 200 projets Data dont 100% en production ces cinq dernières années.

L’offre de service Datafab s’articule autour de trois expertises majeures : data ingénierie & développement, Data science – Machine Learning & IA et enfin, Data Architecture & Infrastructure.

Pour en savoir plus sur Datafab, rendez-vous sur www.datafab.io

 

Contacts presse
Morgane Joffredo – 01 85 65 86 34
alteca@teamlewis.com

Comment expliquer que l’IA vient de refuser un prêt à mon client ? 🤔

Comment éviter de se retrouver à justifier la décision faite par un modèle par « c’est impossible, l’ordinateur ne veut pas » ?

Certains modèles de Machine Learning, by design, sont des « boîtes noires ». C’est le cas notamment des réseaux de neurones 🧠
Il n’est donc pas possible d’expliquer, à partir de leur conception, le résultat qu’ils ont fourni.

Cependant, que ce soit d’un point de vue humain, business ou même réglementaire (RGPD oblige), nous avons l’obligation
d’expliquer comment le modèle a pris une décision ! Mais comment expliquer un modèle qui par conception n’est pas explicable ? 🤷‍♂️

Dans cette vidéo, deux Data Scientists de DataFab apportent des réponses à cette question.
  • Qu’est-ce qu’un modèle et pourquoi en avons-nous besoin ?
  • Qu’est-ce que l’interprétabilité des modèles ?
  • Quelles sont les différentes méthodes d’explicatibilité ?

 

Qu’en pensez-vous ? Quels sont vos besoins ou vos autres propositions pour expliquer les modèles ?

Posez vos questions ou ajoutez vos commentaires 💬

Le CV gagnant pour décrocher ton entretien chez DataFab

Quand on est débutant, on se demande souvent ce qu’il faut mettre dans son CV ! 😬 

Voici la deuxième partie d’une série de conseils pour partager ce qu’on aime trouver dans les CV des candidats que l’on reçoit, et ce qui fait, selon nous, un bon CV.

On poursuit notre partage sur ce qu’on aime trouver dans un CV, notamment pour aider les débutants dans cet exercice complexe. 

Le CV, c’est ce qui raconte ton histoire professionnelle 💼 C’est un outil que tu peux utiliser pour présenter ton histoire de la meilleure manière pour atteindre tes ambitions et objectifs. 

Si par exemple tu es Data Scientist, que tu as fait un stage et/ou une première expérience en la matière mais que tu veux poursuivre par un job de Data Ingénieur, tu ne vas probablement pas présenter ton histoire professionnelle de la même manière : si tu veux rester Data Scientist, tu vas orienter ta présentation (=la manière dont tu racontes ta propre histoire), en mettant en avant tes expériences et tes succès en Data Science. Si au contraire tu veux bifurquer vers une fonction de Data Engineer, tu as intérêt à trouver dans tes expériences tout ce qui se rapporte aux compétences du Data Engineer pour le mettre en avant, et pour mettre en second plan ce qui est relatif à la Data Science. Ça, c’est pour la présentation de ton expérience. 

Il va aussi falloir que tu expliques, au travers de ton parcours, comment tu pars de la Data Science, et comment tu arrives à la Data Engineering, quelle est la progression et quelle est la logique. Derrière, il y a ta motivation, et tu dois avoir un discours cohérent pour démontrer 1/ que c’est bien ce que tu veux faire 2/ que tes expériences parlent pour toi avec des “preuves” que tu as effectivement commencé à toucher à ce métier. Il ne s’agit pas d’inventer des expériences, bien évidemment, n’importe quel recruteur arrivera à te piéger, mais de choisir ce que tu mets plus ou moins en avant.    

Mais avant de pouvoir écrire cette histoire, tu dois te poser une question fondamentale : qu’est-ce que tu veux faire ? Quel est ton job, ton projet de rêve. De la même manière, si tu réponds à l’annonce de tes rêves, analyse bien les attentes des recruteurs et fait en sorte d’écrire ton histoire de telle manière que ton CV mette bien en avant ce qui correspond à ces attentes / a tes attentes. C’est le meilleur moyen pour obtenir ce que tu veux. 

Maintenant tu sais raconter ta propre histoire ! 🔥  
On te parle, dans une troisième et dernière partie, de comment “marketer” ton CV 😉 

Le CV gagnant pour décrocher ton entretien chez DataFab

Quand on est débutant, on se demande souvent ce qu’il faut mettre dans son CV ! 😬 

Voici une série de conseils pour partager ce qu’on aime trouver dans les CV des candidats que l’on reçoit, et ce qui fait,
selon nous, un bon CV.

Dans cette première partie, on te parle de comment présenter ton expérience. 

🎯 Avant tout, on a besoin de comprendre ce que tu as fait et ce que tu sais faire au travers de ton CV. C’est d’ailleurs son objectif principal et il doit être conçu pour répondre à cet objectif. C’est précisément au travers des expériences que l’on va trouver cette information. 

👨‍💻 Pour chacune de tes expériences, on a besoin d’une présentation de l’environnement du projet. C’est une description plutôt fonctionnelle qui permet de comprendre les enjeux du projet (ce à quoi sert le projet, les bénéfices qui ont été apportés au travers de ce projet, l’ampleur du projet…). La présentation de l‘environnement doit aussi permettre de comprendre si le projet a été fait seul, en équipe… et quelle était ta position dans l’équipe. Ça doit être simple et exposé en langage non-technique, sous un angle fonctionnel et enjeux.

🙋‍♂️ Ensuite, pour chaque expérience, il faut expliquer ce que tu as réellement, personnellement et effectivement fait dans ce projet. On insiste sur “personnellement”, parce qu’on ne veut pas savoir ce qu’a fait l’équipe, mais bien ce que tu as réalisé concrètement.

Cette description doit être organisée de manière logique, pour notamment permettre de voir les différentes phases de projet dans lesquelles tu es intervenu(e), et ce que tu as réalisé dans chacune.  

🔍 Est-ce que pour autant tu dois présenter tout le détail de tes expériences ? Pas nécessaire. Tu dois essayer de mettre plus l’accent sur les parties où tu as passé le plus de temps et où tu as vraiment des forces. Pour trouver ces points, tu peux te demander dans tes expériences comment tu as réparti ton temps. Si 50% du temps est consacré à du développement PySpark et 20% à de la modélisation par exemple, c’est probablement que tu y as des forces et qu’il faut mettre principalement en avant ces deux points, en donnant plus de détail sur ce que tu as développé et modélisé, y compris en expliquant les différentes étapes de ton travail. Les 30% restants sont sans doute très intéressants, mais tu y auras moins d’expérience, ils devront donc être moins présents dans ton CV et présentés de manière plus succincte. 

A la fin de chaque expérience, on aime aussi retrouver un résumé des technologies qui ont été utilisées.
Cette liste ne doit contenir que des technologies que tu as beaucoup utilisées, et il vaut mieux se limiter à une liste courte
mais vraiment bien maîtrisée.
 

🗣 Enfin, utilise un langage simple et actif, et remets autant que possible en contexte. Par exemple, si tu as développé des API de prédiction, tu écris : « développement d’API de scoring », tout simplement ! Et si le développement avait une spécificité particulière, tu l’indiques. Exemple : « développement d’API de prédiction – technologie Flask ».  

On pense avoir fait le tour concernant ce focus sur les expériences.

Dans la deuxième partie, on te parle de l’utilité de raconter ta propre histoire au travers de ton CV 😎

Tu es débutant(e) et tu entends partout : « les entreprises ne recrutent plus de débutants  ! »

Ah bon ? Chez DataFab, on a décidé de continuer de recruter des consultant(e)s Data débutant(e)s (entre 0 et 2 ans d’expérience).

On t’explique pourquoi et comment : 

1️⃣
Parce que notre
expérience nous montre que quand ces jeunes sont très bons dans ce qu’ils/elles font, on arrive sans difficulté majeure à trouver des missions techniques dans lesquelleils/elles vont s’éclater.

2️⃣
Parce qu’on parle le même langage.
On est nous aussi des techs et on sait détecter les profil
s data les plus prometteurs.

 

 

3️⃣
Parce que notre
positionnement d’expert dans la data nous permet de comprendre les subtilités des attentes de nos clients et que ce
positionnement 
se traduit par un capital confiance avec eux.

Si tu veux rejoindre notre aventure, il te faut nous convaincre :

✅ Que tu as déjà de la pratique dans les bonnes technos
✅ Que tu déchires en code tu déchires en code
✅ Que tu sais travailler en équipe ! 

Et que tu correspondes à un des profils qu’on recherche : 
  • Data engineer 
  • Data architect 
  • MLOps engineer 
  • Data DevOps & SRE 

Tu souhaites connaître notre process de recrutement et le first step pour postuler ?

On t’explique tout ici 👉 www.datafab.io/process-recrutement-junior/  

Big Data Paris 2019

Le salon Big Data Paris 2019, qui a eu lieu les 11 et 12 mars, est l'un des grands rendez-vous qui rassemble les communautés françaises et internationales du Big Data.

Cette 8ème édition a regroupé 250 exposants et a concilié retours d’expériences, conférences, ateliers… Il est donc facile pour chacun de construire son propre programme en fonction de ses besoins.

En participant à l’édition 2019 en tant que Bronze Sponsor, nous avons eu l’occasion de montrer notre vision, notre univers ainsi que l’état d’esprit que nous prônons chez DataFab. Nous avons également eu l’opportunité d’échanger avec des experts et des visiteurs ayant des besoins ou des projets. Ces discussions intéressantes nous ont permis de mettre en avant nos expertises ainsi que les projets réalisés par nos experts Big Data.

Nous n'avons pas eu l'occasion de nous rencontrer ?
Il est encore temps de se rattraper, contactez-nous 😉

 


Big Data Paris 2020

Nos équipes récidivent !

Pour la 2ème année consécutive, DataFab sera présente au salon Big Data Paris 2020. Les 14 et 15 septembre prochains, nos équipes seront prêtes à vous accueillir sur le Stand A60 à Porte de Versailles.

Ne ratez pas ces 2 jours incontournables de conférences, d’ateliers et de rencontres, et ne manquez pas l’occasion de faire connaissance avec nos experts Big Data et de discuter de vos projets ou besoins.

Nous rendre visite au Big Data Paris :

  • Stand A60
  • Porte de Versailles
  • Lundi 14 septembre 2020 : de 8h30 à 19h – Nocturne de 19h à 21h
  • Mardi 15 septembre 2020 : de 8h30 à 18h30

L’accès au salon est gratuit. Cependant, pour pouvoir accéder aux conférences, vous devez vous munir d’un Full Pass.

Si vous souhaitez en savoir plus au sujet du salon, nous vous invitons à visiter le site officiel.