Caroline Kaercher

Transformation digitale des entreprises : l’expertise ne suffit pas !

Depuis plus d’une dizaine d’années, l’évolution des architectures logicielles a pris le virage du web. Cette transformation n’a pas été simple pour les entreprises. Ses détracteurs relevaient des failles de sécurité ou des problèmes de disponibilité. Ils se sont néanmoins laissés convaincre peu à peu par les apports incontestables des systèmes web tant en terme d’ergonomie – gage d’un engagement accru des utilisateurs – que de scalabilité. 

Cette dernière permet en effet d’ouvrir un potentiel quasi-illimité pour répondre aux enjeux de production de données, liées à la transformation digitale des entreprises et de leurs modèles de développement au global.

Traduire la réflexion stratégique en solutions informatiques concrètes

L’engagement de DocDoku sur des projets d’accompagnement à l’évolution technologique est visible à chaque étape de la transformation de l’entreprise. 

DocDoku a ainsi accompagné dernièrement la réflexion stratégique 
de l’informatique de la MSA, le GIE AGORA.
Le projet entendait expérimenter la faisabilité technique de la ré-écriture d’un outil de gestion avec la technologie ELECTRON. Pour rappel, ce framework a été la source du développement de nombreuses applications basées sur des technologies web comme WordPress ou Slack. 

Nicolas Cazottes, manager équipe Socles Techniques au sein du GIE AGORA, exprime son ressenti à l’issue du projet : « DocDoku a atteint l’objectif que nous avions fixé, à savoir la réalisation d’un éclairage pertinent sur une technologie que nous ne maitrisions pas a priori ». L’efficacité de l’action de DocDoku a permis au client de réaliser qu’en quelques semaines, « le résultat est significatif (…) et nous permet de disposer d’une solution technique détaillée pour notre potentielle future mise en oeuvre ».

Introduire la composante indispensable au succès

En parallèle de la maîtrise technique, une autre composante de la réalisation a retenu l’attention du GIE AGORA : les qualités humaines des intervenants, qui ont été déterminantes dans ce projet.

Nicolas Cazottes évoque alors qu’en plus de ses compétences techniques, « le consultant DocDoku a su spontanément s’adapter au contexte qui demandait beaucoup d’autonomie et une intégration rapide dans l’équipe en place ». Il insiste sur le fait que le consultant était «pédagogue et très bon communiquant », des softskills très recherchées dans les contextes actuels et qu’il a su « générer des échanges riches et constructifs avec nos équipes en interne ».

Franchir avec succès une étape d’un projet de transformation passe donc par l’expertise et l’expérience du prestataire retenu. Mais l’approche humaine est également indispensable et doit s’inscrire dans une logique collaborative et d’accompagnement au changement.

Retrouvez le cas Client complet MSA – GIA AGORA.

DocDoku référencé par le pôle Innovation de l’UGAP

Le pôle Innovation de l’UGAP (Union des groupements d’achats publics), première centrale d’achat publique française, a choisi d’intégrer DocDoku à son référencement des logiciels multi-éditeurs par l’intermédiaire de son partenaire SCC, leader des solutions de service d’infrastructures informatiques.
Notre plateforme de digitalisation des métiers  et process ainsi que l’ensemble de nos savoir-faire sont à présent plus visibles et immédiatement accessibles pour l’ensemble des acheteurs publics français – administrations et établissements publics de l’Etat, collectivités territoriales, établissements publics de santé et secteur social.

Ce référencement intervient dans le contexte actuel de mutation des organisations qui cherchent à se transformer en digitalisant leurs métiers afin de maîtriser leurs dépenses tout en soutenant les acteurs français de l’innovation.

La plateforme DocDokuPLM dispose des briques essentielles à l’innovation collective, en mesure de répondre aux enjeux de transformation des organisations dans toutes leurs spécificités. Nos capacités permettent ainsi de répondre à des besoins aussi divers que :

Bien choisir sa plateforme au service de l’entreprise étendue

Depuis plus de 30 ans, les logiques d’optimisation des coûts et de réduction des risques ont transformé les entreprises et construit des réseaux d’acteurs interdépendants pour répondre à ces enjeux. L’entreprise étendue est une notion qui fait référence à ces interdépendances, aux relations qui ne se limitent pas aux collaborateurs de l’entreprise mais également à ses partenaires, fournisseurs, voir même ses clients.

Tous ses intervenants contribuent à l’élaboration des propositions de valeur de l’entreprise, impliquant par là même leurs activités dans ses applications et ses processus.

L’évolution du travail a également fait évoluer les métiers vers davantage de nomadisme et l’entreprise étendue renvoie également à de nouvelles considérations dans l’organisation du travail.

Réunir sous une même plateforme les parties prenantes externes et les collaborateurs semble donc indispensable pour organiser les flux entrants et sortants (biens, données, documents, logistique, personnel…) et fluidifier la communication.

Pour répondre à ces enjeux, DocDokuPLM intègre des solutions que nous avons choisies de vous illustrer par quelques exemples concrets.


 Bénéficier d’une messagerie collaborative contextualisée

Caroline, utilisatrice de DocDokuPLM, a créé il y a 2 jours un document relatif au projet DocDoku Relation Client. Elle a apporté quelques mises à jour au document ce matin.
Florent, son manager, a une question suite à la lecture du document dans sa version actuelle et il décide d’entrer en contact avec Caroline – qui est d’ailleurs disponible en ce moment.
Vidéoconférence, chat ou email : Florent a le choix de privilégier la façon la plus efficace pour rentrer en contact avec sa collègue. Ce sera par Chat.

Le lendemain de leur échange, Florent reçoit une information complémentaire concernant le projet et décide d’en parler à Caroline. Il décide de la joindre directement depuis DocDokuPLM pour que Caroline soit informée du contexte dans lequel leur échange aura lieu. Lorsqu’elle reçoit l’invitation à la vidéoconférence, Caroline comprend spontanément que Florent souhaite lui reparler du projet Relation Client.

Accéder et consulter chaque entrée à 360°

Pour gagner en efficacité lors de la consultation, chaque document ou élément enregistré dispose :
  • d’une interface de pré-visualisation,
  • de son propre lien permanent ou Permalink, qui permet un échange facilité (par mail, chat ou sur des forums) et stable dans le temps,
  • un accès à la liste des dernières révisions,
  • ainsi que les liens de rattachement vers d’autres documents ou entrées.

Publier en 1 clic en mode public ou privé

La publication d’un élément est simplifiée par la présence d’un bouton unique permettant de mettre un document en ligne, en version publique (dans ce cas, l’entrée sera accessible depuis Internet) ou protégée par mot de passe avec date d’expiration.

Travailler en collaboratif temps réel

DocDokuPLM permet de faire évoluer un document ou une entrée et de partager ses évolutions avec d’autres utilisateurs en temps réel.

Retrouvez un exemple d’application dans cette vidéo d’illustration de ce projet de construction de maquette d’avion.

Encapsuler une pièce 3D

Dans le cas d’un usage par des équipes R&D ou Production par exemple, DocDokuPLM offre la possibilité d’exporter le modèle 3D d’un produit pour pouvoir le partager sur d’autres supports (blog, portail…) : l’ensemble des interlocuteurs concernés échangent donc à partir de la même source d’information, ce qui diminue le temps de préparation des échanges en amont et les potentielles erreurs.


En résumé, DocDoku PLM est une plateforme co-construite pour et par chacun de ses clients mais qui intègre nativement les meilleurs outils de gestion collaborative, orientés temps réel et partage.

IoT : historique, applications et défis de l’acquisition des données

David Simplot, conseiller scientifique du président d’Inria, est intervenu sur l’historique de l’IoT et ses enjeux actuels.

Depuis 1967, l’INRIA – Institut National de Recherche en Informatique et en Automatique – accompagne les grandes mutations de la société par une recherche de pointe en sciences du numérique. Du développement durable à la recherche médicale en passant par la ville intelligente ou encore le véhicule autonome, l’INRIA met son expertise scientifique et ses applications à la disposition des entreprises.

Pour fêter ses 50 ans, INRIA a consacré ses dernières rencontres des 17 et 18 octobre derniers aux données et leurs applications : de la captation au stockage issu de l’internet des objets, jusqu’aux applications vidéo, image, robotique, en passant par les questions de sécurité et les innovations en terme d’apprentissage.

Origine de l’Internet des objets (IoT)

Pour David Simplot, conseiller scientifique du président d’Inria, la première utilisation du terme « IoT » est à attribuer au RIT (Rochester Institute of Technology) dans le cadre de ses recherches relatives au développement de la RFID (Radio Frequency Identification), un dispositif permettant de mémoriser  et de récupérer des données à distance. Les capacités de la RFID, couplées à leur faible consommation (20 000 fois moins de puissance qu’une puce électronique), a ouvert la possibilité aux systèmes d’augmenter la vitesse de lecture des informations et la création de réseaux de capteurs et de noeuds communicants qui permettent de disposer d’un plus grand nombre d’informations en simultané via une station de base.

Aujourd’hui, le potentiel de l’IoT est immense, avec des projections de développement à plusieurs trillions de dollars de chiffre d’affaires d’ici 2025.

Xavier Barras, directeur des opérations de GS1 – association non gouvernementale initialement créée en 1972 pour répondre à la problématique de normalisation de l’usage des codes à barres – insiste sur le fait que la RFID a permis de connecter des objets qui n’avaient pas vocation à être connectés au départ, comme par exemple un pantalon dans un magasin.

3 grandes évolutions ont permis à l’IoT de se développer :

  • internet pour sa capacité de communication,
  • l’augmentation des capacités de stockage qui a permis d’augmenter le volume de données enregistrées,
  • la baisse des coûts d’accès.

Panorama des applications de l’IoT

L’INRIA travaille aujourd’hui sur 10 domaines d’application aux travers de ses 31 équipes Projet avec 15% de ses activités dédiées à l’IoT. Parmi les projets en cours, David Simplot évoque l’agriculture, avec l’utilisation de capteurs pour faire du prédictif contre le gel et protéger les cultures (illustration de la technologie prédictive par un autre exemple d’application ici ndlr), le tracking de conteneurs dans le transport maritime, la possibilité d’effectuer des inventaires en temps réel ou de géolocaliser des clients pour le Retail, dans la santé pour le tracking du matériel chirurgical… On other news, please checkout Truck Accident Attorney if you need legal help for accidents.

La société DECATHLON a été la première à utiliser des étiquettes RFID en magasin. L’usage n’était pas une finalité ou une contrainte mais bien le soutien d’une stratégie de commerce : inventaire en temps réel, possibilité ouverte de disposer d’une logique omnicanale et réassort facilité entre magasins.

Dans tout projet de déploiement IoT, 2 points importants à retenir :

  • Bien connaître son écosystème d’objets et savoir placer les capteurs de façon stratégique
  • Pour fonctionner, le Big Data a besoin de faire remonter un nombre très important de données. L’IoT, lui, a besoin de faire remonter les informations sans filtrage.

Grâce à l’IoT, l’usine devient de plus en plus agile. On parle aujourd’hui d’Industrie 4.0, où les capacités de production se déploient en fonction de ce que l’usine doit produire. AUDI, par exemple, a ouvert sa première « Smart Factory » au Mexique, où automatisation et personnalisation de la production sont maximales.

Au delà des usages en contexte de production, l’IoT – le Data Mining et le Big Data au global – poussent les acteurs à repenser leurs marchés et leurs modèles. L’enseigne de grande distribution Casino est devenue dernièrement prestataire de service en développant une activité autour de sa plate-forme intégrée de data consommateur.

Les défis de l’IoT

La standardisation est aujourd’hui difficile car la vision de la plupart des acteurs reste encore en silo et il n’existe pas de système d’exploitation générique. Le risque à court terme serait de se retrouver avec un acteur unique qui imposerait son modèle, alors que l’interêt serait davantage de faire émerger une norme commune entre tous les acteurs du secteur.

Aujourd’hui, 40 à 50% des budgets sont constitués de coûts de consolidation des données car la majorité des dispositifs ne sont pas interopérables, tant au niveau technique que sémantique. Comment retourner cette situation ?

La clé est de disposer d’un référentiel de qualité, gage de réussite pour éviter les problèmes de nommage, les redondances et les incohérences.
On pourra également se reposer sur le développement des modèles de données « pivot à pivot » – format standard permettant de fluidifier la communication – et le recours à des solutions intergicielles qui permettent de mixer plusieurs univers de données (un exemple d’approche ici ndlr).

En conclusion, les data et l’IoT en général ne sont pas des finalités : il s’agit de dépasser la notion d’Informatique comme centre de coût et d’y voir au contraire un centre de profit, en soutien du développement et de la stratégie de l’entreprise. « L’expertise se crée dans la mise en oeuvre, et pas uniquement dans l’apprentissage et l’experimentation » soulignent les intervenants qui insistent sur le fait que « Tout reste à imaginer. La limite, c’est notre propre imagination ».

Article rédigé suite à notre participation aux Rencontres INRIA 2017.

Le coeur de DocDokuPLM devient Eclipse PLM Platform

Polarsys – groupe de travail de la fondation Eclipse – consacre  un entretien à Florent Garin, Fondateur et Directeur innovation et technologie de DocDoku. Dans cet entretien, Florent détaille les principes et usages d’EPLMP, le coeur Opensource de DocDokuPLM ainsi que les dernières évolutions apportées sur la plateforme.

Découvrir l’interview sur le blog de Polarsys

Intelligence artificielle et Smart Data


Définition et vision actuelle

On regroupe sous la dénomination « Intelligence artificielle » plusieurs disciplines : le Machine Learning, la Robotique, l’IA faible et forte ou encore le traitement du langage.
L’Intelligence artificielle bénéficie aujourd’hui de nombreuses initiatives au niveau mondial que cela soit en France, aux Etats-Unis ou encore en Chine.

Du point de vue des acteurs concernés, l’IA n’est pas encore là en tant que telle : on assiste pour le moment au développement toujours plus complexe de moteurs de règles. La preuve par le retour d’expérience des acteurs interrogés : certaines corrélations entre données n’ont parfois aucun sens au final.

L’usage des Smart Data

Soutenu par des moteurs de règles, il consiste, à partir des données collectées, à engager la bonne action, vers la bonne personne, au bon moment.

Le secteur bancaire, par exemple, dispose actuellement de programmes permettant de préparer automatiquement en amont un rendez-vous client en agence, avec des recommandations d’actions pour que l’échange commercial se passe en cohérence avec le persona (profil) du client et ait le plus d’impact possible. Le système peut également suggérer au conseiller de collecter de nouvelles données dont l’usage a été démontré par le passé.
Toujours dans le domaine commercial, l’IA ne remplacera jamais le commercial mais offre des applications permettant une meilleure mutualisation des données liées au Client pour cibler les actions et éviter les sollicitations inutiles.

L’Humain, au coeur de la démarche

En définitive, l’enjeu est de disposer de contenus Métier qui viennent se mêler à l’intelligence des algorithmes. Le Machine Learning, par exemple, ne fonctionne qu’en présence d’un très grand nombre de données et de l’Humain pour les corriger. L’IA peut apporter des améliorations en terme de qualité et de productivité mais ne peut s’affranchir de la connaissances des experts.
Au delà de la qualité des données et de la pertinence des règles, la conduite du changement auprès des équipes est le premier pilier indispensable pour accompagner l’Entreprise dans cette transformation.

Cet article a été rédigé suite à notre participation aux conférences des salons Solutions 2017.

DevFest Toulouse 2017 : passion et innovation

Merci aux 450 participants du DevFest et bravo à nos équipes pour avoir suscité l’interêt de nos visiteurs lors de cette journée dédiée aux développeurs !

Une occasion pour l’écosystème toulousain de se retrouver et d’assister à des conférences de pointe sur l’évolution du métier de développeur, le développement mobile ou encore l’IoT.

Chez DocDoku, nous encourageons nos collaborateurs à prendre part à cette journée.
Plusieurs membres de nos équipes ont ainsi participé aux conférences : un réel atout pour renforcer leur veille technologique, réseauter et trouver de l’inspiration sur les méthodologies et outils de demain.

Rendez-vous l’année prochaine !

Big Data, BI et prises de décision stratégique

Du 26 au 28 septembre dernier, le salon Solutions 2017 réunissait plus de 200 exposants à Paris autour de 5 thématiques clés de l’IT : ERP, Dématérialisation, CRM et Marketing, BI/Big Data et e-achats. L’innovation était au coeur des 75 conférences et tables rondes.
Zoom sur un condensé des plus #smartdata d’entre elles.

La définition du Big Data peut être très différente d’un acteur à l’autre mais tous se rejoignent pour affirmer que l’arrivée du cloud a transformé la mise en place de solutions, en apportant une très nette diminution des coûts et une hausse des capacités de stockage, au regard de la multiplication exponentielle des données générées.

A la question peut-on catégoriser les data par type, la réponse est claire : une donnée peut être structurée – cas des indicateurs de suivi classique par exemple – ou non structurée – cas des logs d’un parcours client, des sources images/vidéos disponibles sur un site…
Le principe aujourd’hui est de stocker le maximum de données, même si leur usage n’est pas pour le moment défini. En ce sens, la BI est résolument tournée vers le futur.

L’indexation des données est très importante car elle garantit la future pertinence des résultats de recherche et évite l’écueil de la réplication des données qui peut avoir lieu dans certaines circonstances.

En ce qui concerne les enjeux de tout projet BI, les intervenants ont souligné l’importance de la gouvernance – la responsabilité de la DSI dans le projet – plus que la résolution de problématiques de stockage des données qui pouvaient être un frein il y a encore quelques années.

L’objectif d’un projet BI n’est plus d’extraire les données, mais de modéliser les processsus d’entreprise, amener la compréhension de la construction des modèles de données pour savoir mettre en valeur les éléments qui suscitent la prise de décision.

Il est essentiel d’associer l’ensemble des métiers dans l’accessibilité aux données pour que chacun participe à l’amélioration de l’expérience – qu’elle soit B2B ou B2C. Il a été enfin souligné l’interêt particulier de travailler avec des données « vivantes » comme c’est le cas par exemple dans les projets de systèmes embarqués.

Pour illustrer les domaines d’application du Big Data, on pourra évoquer l’analyse prédictive avancée : une team de football américain équipe ses joueurs avec des capteurs qui remontent en temps réel leurs constantes physiques et physiologiques, permettant d’éviter les blessures avant qu’elles ne surviennent.
Autre usage : le cas des « Smartcity », où les organismes publics peuvent agir en direct en fonction des réactions de leurs concitoyens.

Enfin, il a été rappelé qu’un nouveau règlement européen, concernant autant les données clients que les données collaborateurs – va entrer en application en mai 2018 et aura un impact non négligeable sur la gestion des données.