François Dorgeret, en charge des projets innovants au sein du pôle Aerospace Valley, et moi-même avons participé à une interview dans le cadre du salon SIANE 2014.
L’occasion pour nous de présenter notre vision de l’usine du future et la manière dont elle est abordée au sein de son DAS chez Aerospace Valley.
Point Eco – Cap sur l’usine du futur dans l’entreprise DocDoku
Lundi matin, nous avons eu l’honneur de recevoir dans nos locaux l’équipe de TLT avec Boris Georgelin ainsi que la CCI de Toulouse représentée par son Président Alain Di Crescenzo et son Vice-Président Bernard Ourmières.
Diffusé à plusieurs reprises sur TLT cette semaine, l’objectif était le tournage du magazine bimensuel « Point Eco », qui propose un regard expert sur l’économie à Toulouse.
Le thème abordé pour cette quinzaine étant l’usine du futur, Florent Garin et toute l’équipe ont été sollicités pour présenter les apports technologiques de DocDoku sur ce sujet d’avenir à construire dès maintenant :
Salon Innovation Connecting Show de Toulouse du 16 au 18/09/2014
Nous avons en effet exposé pendant ces trois jours sur le salon international Innovation Connecting Show de Toulouse du 16 au 18/09/2014.
Au programme de ce salon : conférences, pitchs et démonstrations de notre technologie sur notre stand.
J’ai également eu le plaisir de répondre aux questions de la ravissante Ginie sur le plateau TV du salon :
Interview Eric Descargues – plateau TV salon Innovation Connecting Show 2014 from DocDoku on Vimeo.
Grunt, Gulp, quel outil pour automatiser vos tâches front-end ? (3/3)
Grunt, Gulp, le match !
Comme nous en avions précédemment discuté ici et ici, Grunt et Gulp sont deux outils fantastiques, bâtis autour de la plateforme Node.js, qui nous permettent d’automatiser les tâches fastidieuses mais essentielles du développement front-web. Si la finalité de ces deux outils est la même, comment se distinguent-ils ?
La configuration
Gulp est un outil qui est tourné vers le code plutôt que vers la configuration. Les tâches Grunt sont configurées dans un objet de configuration alors que les tâches Gulp sont plutôt configurées en utilisant un style de syntaxe à la Node.js.
Le style de configuration de chaque plugin Grunt peut varier d’un plugin à un autre alors que les options de configuration des plugins sous Gulp sont bien plus standardisées.
Sachez aussi que l’on peut facilement se retrouver avec de très gros fichiers de configuration Grunt cela étant dû en partie à cause des configurations un peu trop over-kill pour des tâches qui restent simples.
L’exemple ci-dessous nous permet de constater la différence entre Grunt et Gulp pour automatiser la compilation de fichiers LESS:
Gruntfile.js
grunt.initConfig({ less: { options: { paths: ["app/styles/css"] }, files: { "build/styles/result.css": "app/styles/source.less" } }, watch: { styles: { files: ['app/styles/{,*/}*.less'], tasks: ['less'] } } }); grunt.registerTask('default', ['less', 'watch']);
Gulpfile.js
gulp.task('less', function () { gulp.src('app/styles/**/*.less') .pipe(less()) .pipe(gulp.dest('build/styles')); }); gulp.task('default', function() { gulp.run('less'); gulp.watch('app/styles/**/*.less', function() { gulp.run('less'); }); });
Selon votre style, vous préférerez le code plutôt que la configuration ou inversement.
Personnellement, je trouve que le style de syntaxe de Gulp est plus lisible que celui de Grunt.
Les performances
J’ai pu constaté sur différents projets que Gulp était deux fois plus rapides que Grunt dans la majeure partie des cas.
Cela est du au fait que Gulp utilise le système de streams qui lui permet de monter les flux de données en mémoire, ce qui limite grandement les lectures/ecritures dans les fichiers.
Ce n’est pas le cas de Grunt, il n’utilise pas de streams mais va plutôt mulitplier les accès aux fichiers et avoir recours à des fichiers temporaires pour écrire les contenus d’une étape à une autre, ce qui peut être particulièrement coûteux en terme de performance suivant la taille du projet.
La communauté
Gulp est encore jeune et de ce fait il dispose d’une petite communauté et je trouve que la documentation est très souvent insuffisante.
Avec pratiquement 2 ans d’existence, Grunt se pose comme référence dans le domaine des task runners, il dispose d’une solide communauté et d’un peu moins de 3000 plugins (contre 650 pour Gulp).
Mais attention toutefois à Gulp qui pourrait s’imposer dans le futur car de plus en plus de developpeurs l’ont adopté pour les différentes raisons que nous avons pu voir.
Conclusion
La finalité de ces deux outils est la même : automatiser les tâches récurrentes pour nous faire gagner du temps !
Il faudra garder un oeil sur les évolutions futures de Grunt. Il se murmure que dans ses prochaines versions il pourrait prendre en charge le piping et les streams, ce qui réduirait considérablement son retard par rapport à Gulp en terme de performances. De ce fait, la configuration des plugins serait minime puisque nous pourrions nous passer totalement des fichiers temporaires.
Si vous devez faire un choix, il faut se demander quel style vous correspond le mieux. Est-ce que je prèfere un outil basé sur de la configuration ou sur du code ? À chaque style son outil, choisissez Grunt si vous êtes plus à l’aise avec de la configuration plutôt qu’avec du code, sinon choisissez Gulp.
Si au final vous avez du mal à faire un choix sachez que les deux cohabitent parfaitement !
Grunt | Gulp |
3000 plugins | 650 plugins |
Configuration | Code |
Fichiers temporaires | Streams |
Grande communauté | Communauté naissante |
Rapide comme l’éclair | |
Documentations perfectible |
Grunt, Gulp, quel outil pour automatiser vos tâches front-end ? (2/3)
Gulp
Tout comme Grunt, Gulp est un outil d’automatisation JS (javascript task runner) basé sur la plateforme NodeJS qui va nous permettre d’améliorer notre workflow et d’optimiser nos applications web. Qui dit automatisation dit plus de temps pour se concentrer sur d’autres choses plus importantes comme produire du code de qualité ! Grâce à cet outil, nous allons pouvoir automatiser des tâches telles que la compression d’images, les tests unitaires ou encore la minification.
Depuis sa sortie, Gulp a suscité un grand intérêt auprès de la communauté des developpeurs front-end du fait de la simplicité de sa mise en place et de sa configuration qui lui permette d’être très facilement lisible et maintenable.
Installation
Puisque Gulp est basé sur NodeJS, ce dernier doit être installé sur votre poste avant d’installer Gulp.
Vous pourrez installer NodeJS sur votre machine sans trop de difficulté en vous rendant ici.
Une fois NodeJS installé, vous pourrez installer facilement Gulp en utilisant npm (Node Packet Manager).
Il faut lancer la commande suivante :
$ npm install -g gulp
Cette commande aura pour effet d’aller récupérer Gulp depuis le registre npm et de l’installer globalement dans votre système.
Pour installer gulp uniquement au niveau de votre projet, il ne faut pas mettre l’option -g dans la ligne de commande.
Configuration
À ce niveau, Gulp est installé sur votre système et est prêt à être utiliser dans nos projets.
Tout comme nous l’avions vu dans notre précédent article, il faut avoir mis à la racine de notre projet un fichier package.json dans lequel on va renseigner toutes nos dépendances de développement .
À présent, il faut installer Gulp en tant que dépendance du projet, ce qui permettra aux autres membres de la team, de partir du bon pied lorsqu’ils feront un « npm install » !
La commande à exécuter est la suivante :
$ npm install --save-dev gulp gulp-util
L’option « –save-dev » dans la ligne de commandes va permettre de mettre à jour les dépendances de développement dans le fichier package.json en ajoutant une référence à gulp et gulp util. Si vous omettez cette option, le fichier package.json ne sera pas mis à jour avec la dépendance en question et vous serez obligé de la rajouter manuellement.
Maintenant nous allons pouvoir installer tous les plugins qu’il nous faut pour automatiser l’éxécution des tâches !
Étant donné que les plugins de Gulp sont des modules de node, nous allons utiliser npm pour les installer.
$ npm install --save-dev gulp-less gulp-watch
La ligne de commande ci-dessus va installer le plugin pour compiler nos fichier LESS et va nous permettre de surveiller les fichiers que l’on modifie dans le but d’y associer un traitement particulier. De plus, une entrée sera automatiquement ajoutée au niveau de devDependencies dans le fichier package.json
{ "devDependencies": { "gulp": "^3.7.0" "gulp-less": "^1.2.3", "gulp-watch": "^0.6.5" } }
À l’heure actuelle, Gulp dispose d’un peu plus de 600 plugins. Certains feront sûrement votre bonheur, tels que :
- gulp-concat pour concatener
- gulp-uglify pour obfuscer
- gulp-minify-css pour minifier vos feuilles de styles CSS
- gulp-open pour lancer votre navigateur préféré une fois le build fini
- etc…
Gulpfile.js
De la même façon que Grunt, toute la configuration de Gulp réside dans le fichier gulpfile.js situé à la racine du projet.
Nous allons donc commencer par dire à Gulp de quels plugins nous avons besoin pour executer les tâches :
var gulp = require('gulp'), util = require('gulp-util'), less = require('gulp-less'), watch = require('gulp-watch');
Par la suite nous allons specifier quelles tâches nous allons exécuter. Dans notre cas nous allons faire 2 choses :
- Une tâche « less » qui va compiler les fichiers LESS et placer le résultat à un endroit donné
- Une tâche « default » qui va exécuter la tâche « less » puis surveiller toutes modifications des fichiers de type .less, si une modification survient la tâche « less » sera rejouée
Pour définir une tâche Gulp, on utilise la méthode task() suivante :
gulp.task('less', function () { gulp.src('app/styles/**/*.less') .pipe(less()) .pipe(gulp.dest('build/styles')); });
La méthode task() prend en entrée un nom sémantique « less » qui définit le nom de la tâche et ensuite une fonction anonyme qui contient le traitement en question.
Nous allons décomposer cette méthode ligne par ligne :
gulp.src('app/styles/**/*.less')
La méthode src() va nous permettre de spécifier le chemin vers les fichiers avec l’extension LESS et va les transformer en un stream qui sera diffusé aux plugins pour effectuer les traitements.
.pipe(less())
La méthode pipe() va utiliser le stream provenant de src() et le passer aux plugins référencés. Ici en l’occurrence, le plugin less recevra le stream de fichier pour les traiter.
.pipe(gulp.dest('build/styles'))
La méthode dest() va nous permettre de spécifier l’emplacement où l’on souhaite écrire le résultat du traitement. Les fichiers LESS compilés seront donc placés dans le dossier styles du build.
Pour exécuter cette tâche, il suffira de se placer à la racine du projet et de lancer la commande :
$ gulp less
Si nous ne spécifions pas de tâche dans la ligne de commande, la tâche « default » sera lancée.
gulp.task('default', function() { gulp.run('less'); gulp.watch('app/styles/**/*.less', function() { gulp.run('less'); }); });
La tâche « default » ci-dessus a pour but de lancer la tâche « less » (compilation de LESS pour avoir en sortie une feuille de style CSS) puis surveiller toutes modifications des fichiers LESS. Si une modification survient, la tâche « less » sera re-éxecutée. De cette façon, on n’a plus à se soucier de compiler les fichiers LESS à chaque fois qu’on les modifie !
Là est toute la puissance de Gulp, une syntaxe très séduisante, claire et facilement lisible et un gain de performance grâce à un système de stream qui évite d’écrire dans un dossier temporaire.
Il n’y a pas autant de plugins disponibles pour Gulp que pour Grunt, c’est un fait, mais la communauté n’en est pas moins active et grandissante, il ne serait pas étonnant que Gulp s’impose comme le prochain standard de l’automatisation JS des tâches, mais d’ici là quel outil choisir ?
La suite, dans notre prochain article consacré au match Grunt / Gulp.
Grunt, Gulp, quel outil pour automatiser vos tâches front-end ? (1/3)
Introduction
En tant que développeurs front-end, nous sommes amenés à réaliser nos projets web en ayant à l’esprit un certain nombre de bonnes pratiques telles que :
- La compression des feuilles de styles CSS et la minification des scripts Javascript pour qu’ils soient le plus léger possible en production
- L’optimisation des images en réduisant leur poids sans altérer leur qualité
- Auto-générer des sprites d’images
- S’assurer que les scripts Javascript ne contiennent pas d’erreurs de syntaxe
- Retirer les alertes/console log en production
- etc …
Si nous voulons avoir une webapp optimisée, nous devons réaliser absolument toutes ces tâches. Des tâches répétitives, quelque soit le projet, et fastidieuses car elles ne se limitent pas seulement aux 4 citées en exemple plus haut.
Automatiser ce genre de tâches est donc devenu quasi-vital dans le but, d’une part, de gagner un temps considérable à ne plus tout faire manuellement et d’autre part, d’être sûr de l’optimisation du code livré en production (minification, obfusquation etc…). Tout cela en moins de temps qu’il ne faut pour préparer votre café préféré !
Si votre quotidien est synonyme de tâches à répétition et que vous avez cherché à un moment donné à les automatiser, vous avez forcément entendu parler de Grunt ou encore de Gulp qui s’imposent comme des références en la matière d’outils d’automatisation Javascript.
Outils Javascript d’automatisation
Les outils js d’automatisation des tâches s’appuient sur Node.js, une plateforme software écrite en Javascript orientée serveur qui fut créé il y a quelques années. Elle utilise le moteur V8 de Google Chrome qui va analyser/exécuter ultra-rapidement du code js et qui fonctionne suivant un modèle non bloquant (programmation asynchrone). Node.js a ouvert la voie, entre autres, à de nouveaux outils d’automatisation tel que Grunt et c’est une vraie chance pour nous autres développeurs front-end que d’avoir à notre disposition ce genre d’outils pour :
- déployer rapidement un serveur de développement
- rafraîchir sa page lorsque l’on modifie un fichier
- compiler les templates
- bouchonner les données renvoyées par un web service,
- supprimer tous les commentaires dans le code
- minifier les feuilles de styles
- obfusquer les scripts JS
- etc…
Il n’y a pratiquement pas de limites à ce que l’on peut faire !
Grunt
Grunt est un outil basé sur des tâches exécutées en ligne de commande qui va grandement accélérer nos workflows classiques de développement en réduisant notre effort lors de la préparation des sources pour les mises en production.
Dans la plupart des cas, sachez que lorsque vous effectuez manuellement une tâche, son équivalent automatique existe sous forme de plugin Grunt comme par exemple la minification et la concaténation de scripts.
Grunt est également capable de gérer des tâches qui ne sont pas forcément liées à Javascript comme la compilation CSS depuis SASS ou LESS.
Enfin sachez qu’il dispose d’une incroyable communauté de développeurs et d’une énorme base de plugins mise à jour très régulièrement. Vous n’êtes donc pas seul à vous lancer dans l’aventure !
Installation
Comme évoqué précédemment, Grunt est basé sur Node.js. De ce fait il doit être installé sur votre machine pour que Grunt puisse fonctionner. L’installation de Grunt se fait via le npm (Node Packet Manager), il suffit d’ouvrir votre invité de commandes et d’exécuter cette instruction pour installer Grunt :
$ npm install -g grunt-cli
Package.json
Package.json est un fichier à créer à la racine de votre projet, il va vous permettre de tracker et d’installer toutes les dépendances liées au développement. Ainsi, tous les membres de votre team disposeront des toutes dernières versions des dépendances. Ce qui en fin de compte permet de garder un environnement de développement constamment synchronisé.
{ "name": "Example", "description": "Un package de test", "version": "0.0.1", "private": "true", "author": "Prenom Nom ", "devDependencies": { "grunt": "^0.4.5" } }
$ npm install
La commande ci-dessus va dire à npm d’aller récupérer toutes les dépendances qui sont listées dans devDependencies puis de les installer dans le dossier node_modules. Dans cet exemple, si la commande réussie, Grunt version 0.4.5 ou supérieure sera installée localement dans le projet.
Gruntfile.js
Comme le fichier package.json, le fichier Gruntfile.js doit être placé à la racine du projet. Il contient toute la configuration des tâches automatiques à exécuter lorsque l’on exécute grunt depuis l’invité de commandes.
module.exports = function(grunt) { /* 1. Toute la configuration. * L'ordre n'a pas d'importance. */ grunt.initConfig({ pkg: grunt.file.readJSON('package.json'), /* 2. La configuration du plugin cssmin pour la minification de css. * Une sous tâche build qui va minifier index.css dans style.css */ cssmin: { build: { src: 'app/css/index.css', dest:'build/css/style.css' } } }); /* Chargement du plugin * 3. On dit à Grunt que l'on compte utiliser le plugin grunt-contrib-cssmin. */ grunt.loadNpmTasks('grunt-contrib-cssmin'); /* Déclaration des tâches * On dit à grunt ce qu'il faut faire lorsque l'on execute "grunt" dans l'invité de commandes. */ grunt.registerTask('default', ['cssmin']); };
À partir de maintenant il n’y a plus qu’à exécuter la ligne de commande suivante dans notre invité de commandes pour minifier notre feuille de style :
$ grunt
Et voila ! Notre feuille de style a été minifiée en une fraction de seconde.
Imaginez maintenant toutes les tâches que l’on peut automatiser exactement avec la même simplicité!
Pour vous en rendre compte, je vous invite à jeter un œil à l’impressionnant listing de plugins disponible pour Grunt. Pas moins de 3000 plugins pour faciliter notre quotidien.
Grunt est donc un outil très simple d’usage, qui consiste en un fichier de configuration js facilement lisible, dans lequel on paramètre les plugins que l’on souhaite utiliser pour automatiser nos tâches.
Sachez qu’il n’est pas le seul sur le marché…
La suite, dans la deuxième partie de ce dossier qui sera consacrée au petit nouveau, Gulp !
Retour sur notre présence au Techno Day Aerospace Valley le 3 avril à Agen
Je vous fais un petit retour sur notre présence au Techno Day, le 3 avril dernier à Agen, organisé par le pôle de compétitivité Aerospace Valley.
Pour cette première édition, l’objectif étant de donner plus de visibilité aux enjeux et technologies du pôle et à valoriser le potentiel de ses membres.
Durant cette journée, plusieurs conférences étaient organisées sur les thèmes de l’aéronautique, des systèmes embarqués et des drones et leurs usages.
En tant qu’exposant, nous avons pu montrer notre solution innovante DocDokuPLM en proposant aux visiteurs des démonstrations de l’ensemble des fonctionnalités telles que la visualisation 3D dans un navigateur internet ou les aspects collaboratifs intégrés comme la visioconférence ou le chat.
Solutions Linux 2013 (suite)
Sur le salon Solutions Linux 2013, j’ai eu le plaisir de participer à une interview d’Intelli’N TV, la voici :
Solutions Linux 2013
Le salon Solutions Linux 2013 vient tout juste de s’achever, j’en profite donc pour faire un retour à chaud de cet évènement majeur de la communauté open source française.
Cette année, la superficie allouée au salon a quelque peu réduit et la manifestation ne s’étale plus que sur 2 jours au lieu des 3 jadis. Toutefois, c’est finalement un mal pour un bien car du coup les rencontres de qualité s’enchainent à un rythme soutenu.
Si la dénomination est restée la même depuis les toutes premières éditions, le lien avec linux n’est pas exclusif. Aujourd’hui les exposants présentent majoritairement, comme nous, des solutions métier. Cela va de la business intelligence à l’ERP en passant par les CMS et bien sûr le PLM !
A côté des stands des entreprises, comme d’habitude, se trouvait le village associatif. Ce genre de salon est l’occasion d’entrer en contact avec de futurs prospects, de rencontrer des clients (j’ai longuement conversé avec un responsable de l’afpa), des partenaires et confrères ; j’ai notamment discuté avec Gaël d’Obeo et l’équipe de BlueMind.
Côté échange, j’ai eu le plaisir de participer à la série de présentations d’OW2 et à une interview Plateau TV orchestrée par Philippe Scoffoni. En parlant d’OW2 d’ailleurs, la traditionnelle Wine & Cheese Party est toujours aussi réussie, félicitation à Catherine pour son organisation.
Enfin, comment ne pas finir ma rétrospective avec un moment assez cocasse où un concurrent que j’avais démasqué (éditeur propriétaire faisant plus de cent millions d’euros de chiffre d’affaire) est venu s’enquérir de notre logiciel, indubitablement impressionné par les performances et la richesse fonctionnelle. L’open source est un concept étrange pour la plupart des éditeurs PLM qui sont extrêmement fermés et verrouillent au maximum, au détriment de l’intérêt de leurs clients, les données de leurs logiciels.
Nous, au contraire, nous travaillons dans la transparence, notre seule obsession est la qualité de nos logiciels sans aucune stratégie de lock-in. Tout le monde a accès au code source, y compris ce concurrent, et peut l’utiliser librement en respectant le copyright et la licence AGPL.
Salon Solutions Linux, Paris les 28 et 29 mai 2013 : découvrez notre solution innovante DocDokuPLM
Nous serons présents au salon Solution Linux & Open Source les 28 et 29 mai 2013 au CNIT – Paris La Défense.
Venez donc nombreux sur notre stand (D12) découvrir notre solution innovante DocDokuPLM qui vous permet, entre autres, depuis un simple navigateur (sans auncun plugin ou installation) et depuis n’importe quelle plateforme (PC, Mac, Tablette, Smartphone) de :
– Visualiser vos modèles 3D.
– Collaborer par chat et visio-conférence.
Cliquez ici pour obtenir votre badge d’accès gratuit.
Charte pour l’emploi
Nous sommes signataires de la charte pour l’emploi. Cette initiative vise à promouvoir l’apprentissage et favoriser la diffusion des connaissances du logiciel libre.
C’est une belle démarche, qui plus est contribue à fortifier le dynamisme de la France en la matière. N’hésitez donc pas à rejoindre le mouvement.
Retour sur le salon SIANE 2012 avec DocDokuPLM
Exposant pour la première année sur le salon SIANE (Salon des Partenaires de l’Industrie du Grand-Sud) qui avait lieu du 23 au 25 octobre 2012 au Parc des Expositions de Toulouse, je vous propose ici notre REX sur ce salon.
Notre première participation était pour nous l’occasion de continuer de promouvoir au sein du tissu industriel régional, national et international notre solution innovante DocDokuPLM et donc également de capter sur le terrain les besoins des industriels en matière de PLM.
Nous avons ainsi rencontré un grand nombre d’industriels et de partenaires sur ce salon, ce qui nous a réellement permis de confronter les besoins concrets des entreprises avec notre solution innovante de PLM. Il est en effet toujours indispensable de garder à l’esprit que la technologie n’a de réelle valeur que si elle est au service des usages.
En résumé donc, je retiendrais que les industriels sont très captifs au fort ROI que propose notre solution Open Source.
En effet, nous avons noté que trois éléments technico-économiques ont retenu l’attention de tous nos visiteurs lors de ce salon :
– la possibilité de visualiseur tous types de modèles 3D (Catia, Inventor, AutoCAD, NX…) sur tous types de terminaux (PC/Mac/Tablettes/Smartphones) directement dans le navigateur internet sans aucune installation ou plugin,
– notre modèle de coût non proportionnel au nombre de postes déployés puisque aucun déploiement nécessaire (donc pas de coût de licence, modèle Open Source), ceci permettant de ne pas limiter les usagers et les usages pour encore plus de ROI,
– la facilité d’intégration de notre solution moderne et résolument orientée web et cloud-ready avec l’existant (CAO, autre PLM, ERP, applications métiers…).
Mais nous avons surtout constaté que les avantages technico-écoonomiques de notre solution procurent une réelle valeur ajoutée métier au sein des industries puisque capables de susciter des nouveaux usages :
– pour le partage des données autour des modèles 3D dans un contexte d’entreprise encore plus étendue (entre clients, fournisseurs et partenaires) grâce au cloud,
– pour une meilleure information produit en situation de mobilité lors des phases d’assemblage et de maintenance,
– pour les managers souhaitant visualiser simplement l’avancement du produit, le montrer et communiquer atour de ce dernier,
– pour le marketing et les commerciaux pouvant enfin disposer simplement depuis n’importe où de la dernière version produit en clientèle !
Enfin, nous avons également relevé une fonctionnalité qui nous a été demandée à plusieurs reprises et qui sera donc prochainement incluse dans notre roadmap : la possibilité d’effectuer des relevés ou mesures 3D des produits directement sur le modèle 3D, très utile pour les opérationnels mais également pour les utilisateurs devant réaliser des devis et tarifer selon les dimensions des solides.
Bilan extrêmement positif et enrichissant donc pour ce salon SIANE 2012 avec quelques contacts très intéressants à approfondir !
Pour information, le prochain salon où nous serons présent avec DocDokuPLM est un salon international plus orienté grands comptes de l’aéronautique et du spatial,du 4 au 6 décembre 2012 à Toulouse : Aeromart 2012.
DocDokuPLM winner of the Open World Forum Demo Cup 2012
That’s with a great pleasure that we received an Innovation Award for the demo cup at the Open World Forum which took place the 11, 12 and 13th october 2012.
The demo cup consisted of presenting our open source software in a time boxed format of 7 minutes! That was a very funny and challenging exercise, especially with a jury composed of experts and an audience hard to impress.
So, I made a live demo of DocDokuPLM.
I started with the classical login screen, then quickly went through the document management module. I didn’t take much time on this part of the software as document management is becoming a commodity nowadays. However I explained that our DM is not as classical as it seems in the sense that it follows the PLM industry terminologies and definitions, especially those defined in the « OMG PLM services » and the STEP standards.
After that, I came to what was the heart of my presentation: the DMU (Digital Mock-Up) inside the browser without any plugin. I demonstrated how we can rotate, zoom in or out and move the product model. I showed how to hide/display specific assembly parts just by clicking on checkboxes.
Then I played with the layers and markers functions of our tool that allow to pin notes directly on the model.
At last, I finished my demo with an impressive mashup feature that permits to publish the whole model in any blog, wiki, forum exactly like what we can do with youtube or dailymotion videos.
Finally we were the first team to be called on stage to receive our prize quickly followed by Blue Mind that proposes a messaging and calendar solution and by Hippo with their HippoCMS which is a context sensitive CMS system.
OW2Con 2011
La conférence annuelle du consortium OW2 s’est tenue la semaine dernière chez Orange dans son Orange Labs’ Innovation Gardens. Au delà du côté convivial de cette manifestation, j’ai pu d’une part échanger avec beaucoup d’acteurs de l’open source et de la recherche et d’autre part cela a été l’occasion de présenter notre projet de développement d’une solution PLM open source :
Par ailleurs, des sessions que j’ai pues voir et de mes discussions informelles avec les autres participants j’en retire que le cloud computing, sous toutes ses formes (IaaS, PaaS, SaaS), est le sujet brûlant des DSI aujourd’hui. Dans ce cadre là, deux projets présentés à ow2con sont à suivre de près : CompatibleOne et OpenNebula.
Interview Eric Descargues Mêlée Numérique 15
Une fois n’est pas coutume, voici l’interview d’Eric Descargues au salon de la Mêlée Numérique 15.
Au programme Cloud ou SaaS, GED, PLM et surtout Open Source :
Merci à Frédéric Dessort pour l’interview et à l’équipe de Pinkanova pour la réalisation.
Interview DocDoku pour le blog RIA experts au salon MN XV
Merci à Laura de l’équipe KeepCore pour cet interview sur le thème du RIA sur leur blog RIA-EXPERTS.
L’article complet est ici.
DocDoku vous offre une tablette tactile pour tout contrat signé à la Mêlée Numérique XV
DocDoku aura le plaisir de vous accueillir sur son stand lors de la 15ème édition de la Mêlée Numérique à l’Espace Diagora de Toulouse Labège, les mercredi 20 et jeudi 21 avril 2011. Le Salon des TIC numéro 1 sur le Sud Ouest rassemble tous les acteurs économiques des solutions de l’informatique, des nouvelles technologies, des télécoms et de l’innovation. Au programme : 150 exposants, 45 ateliers et conférences et plus de 3000 visiteurs attendus.
L’actualité de DocDoku
Cet évènement sera l’occasion pour DocDoku de vous présenter sa dernière réalisation tactile entièrement développée au moyen de technologies innovantes Open Source (HTML 5, CSS3, JQuery, SIPCommunicator…). Venez également échanger avec nous sur notre solution de gestion du cycle de vie des produits (Product Lifecycle Management) Open Source, qui est incubée au sein d’OW2 et devrait être lancée au début de l’année prochaine.
Animation sur le stand
Assistez à une démonstration de l’application multiplateforme Webinage, notre dernière réalisation tactile entièrement développée au moyen de technologies innovantes Open Source.
Animation atelier
Notre directeur technique, Florent Garin, animera également un atelier sur « HTML 5 ou l’évolution majeure du web et de l’internet mobile » le mercredi 20 avril de 16h30 à 17h30 . Inscrivez-vous sur le site du salon.
A Propos de DocDoku
DocDoku est un cabinet de conseil et de formation innovant disposant d’une expertise sur les technologies et solutions Open Source (Java, JEE, Android, DocDoku, Liferay…). Cette expertise nous permet d’avoir la confiance de clients majeurs comme Amadeus, Axa, Cegedim, Dassault, LG, Motorola, Météo France, Mia Electric, MSA, NEC ou Pierre & Vacances.
Nativement éditeur de la solution libre éponyme de gestion collaborative de documents (GED ou ECM), notre activité résolument tournée vers la recherche et développement nous permet d’apporter une réelle valeur ajoutée à nos prestations de conseil, d’expertise, de formation et de réalisation de projets dans le domaine IT.
Nos consultants sont très impliqués dans nos projets de recherche et développement essentiellement Open Source et assurent une veille technologique permanente.
Plus d’information sur le salon
Mercredi 20 et jeudi 21 avril 2011 à l’Espace Diagora de Toulouse Labège. Entrée gratuite Le site du salon : http://www.meleenumerique.com
Contact Presse
M. Eric Descargues Téléphone : 05 61 72 24 09
Mentions Légales
DocDoku SARL au capital de 20 000 euros RCS Toulouse : 492 273 800 000 28 Code APE : 5829C Buroplis – Bâtiment B – 150 rue Nicolas Louis Vauquelin 31100 Toulouse
http://www.docdoku.com
DocDoku au 1er Mobile Monday Toulouse sur la NFC : actualités et perspectives des OS mobiles
Nous interviendrons pour la 1ère édition du Mobile Monday Toulouse du 4 avril 2011 consacrée à la NFC.
Il s’agira de faire le point sur les possibilités des OS mobiles aujourd’hui et demain.
Tout le programme est disponible ici : http://lacantine-toulouse.org/626/mobile-monday-toulouse-1ere-edition-sur-la-nfc
Cela se passe à la Cantine à partir de 18h30. Venez nombreux !
Le PLM Open Source DocDoku annoncé par Mid E-news
Milles mercis à Pascal Boiron pour son article dans Mid E-news pour l’annonce de notre nouvelle solution PLM Open Source incubée au sein d’OW2 :
Présentation des versions Web et Desktop de notre solution de GED Open Source
DocDoku est une solution open source de gestion collaborative de documents dont le rôle est d’aider les membres d’une même organisation à gérer, partager, rechercher et produire des documents. Parmi les principales fonctions de notre GED, nous retrouvons :
- Contrôle de version
- Réservation / libération des documents
- Prise en charge des métadonnées
- Organisation arborescente des documents
- Recherche plein texte et multi-critères
- Classification transverse par types de document et libellés
- Génération automatique des références de document (selon un numéro chronologique par exemple)
- Transformation des documents (génération PDF)
- Visionneur Web supportant la plupart des formats
DocDoku est un outil simple, à l’ergonomie soignée dont la prise en main est très rapide.
En savoir plus sur la GED DocDoku.
Tester gratuitement la GED DocDoku.
La GED DocDoku est disponible en deux versions :