Category: Opinions

virtual-reality
mars 26th, 2018 by La Rédaction

Avis d’expert par Stéphane CALZADO, Président de Novadial

2018 sera sans aucun doute une année clé dans l’avènement et le développement de technologies toujours plus immersives. Dans ce contexte, force est de constater que quatre tendances semblent se distinguer et vont profondément faire évoluer nos habitudes en induisant de nouveaux usages. Ces dernières ont d’ailleurs largement été mises en avant à l’occasion de l’édition 2018 du CES.

L’Intelligence artificielle et la reconnaissance vocale s’imposent

Le maître mot est bien l’intelligence artificielle (IA), en d’autres termes la capacité d’une machine à apprendre et effectuer des tâches pour lesquelles elle n’a pas été programmée, mais seulement via l’analyse dynamique des données. Tous les concepteurs de technologies rivalisent d’ingéniosité pour promouvoir leurs assistants dans le plus grand nombre de produits possibles (écrans, voitures, montres, électroménager, enceintes…) pour en faire la porte d’entrée de leurs services au sein du foyer connecté.

Les écrans se généralisent et investissent notre quotidien

Les écrans ne cessent de s’élargir, de s’affiner tout en gagnant en définition. En 2018, les fabricants ont rivalisé d’annonces spectaculaires au CES. Cette édition a été le théâtre d’une compétition entre LG, Samsung et Panasonic qui ont présenté des écrans avec des diagonales immenses allant jusqu’à 146 pouces. La 8K, c’est à dire huit fois la HD, était également présentée. Cette prouesse technologique est encore théorique pour le consommateur, car la technologie 4K peine encore à se démocratiser du fait qu’aucun contenu n’est disponible dans cette définition.

La voiture devient autonome

La part de l’automobile s’est encore accrue lors du CES autour de nombreux constructeurs et équipementiers. En attendant les premières mises en circulation, les acteurs du secteur nous ont livré une nouvelle vision de la vie à bord de ces véhicules de demain. Grâce aux progrès de l’intelligence artificielle et à la profusion des écrans, plusieurs modèles ont mis en avant des solutions pour améliorer la sécurité et surtout le confort des passagers. La voiture autonome pourrait devenir un lieu privilégié dédié au divertissement tout en bénéficiant d’un niveau de confort maximal.

Les robots s’humanisent toujours plus

Des robots pour ranger son intérieur, pour guider les visiteurs dans les musées, pour jouer au tennis de table ou comme animal de compagnie, le CES a réservé un florilège d’applications robotisées. Les robots vont donc transformer notre quotidien et faire émerger de nouveaux usages.

Ces quatre tendances technologiques mettent en avant la révolution que nous allons vivre. Loin d’être une simple vue de l’esprit, le développement de la robotisation et de l’IA est indiscutablement une donnée avec laquelle nous allons devoir vivre. Au final, nous allons une nouvelle fois tirer avantage des apports du digital et connaitre une véritable évolution dans notre relation vis-à-vis du numérique.

Posted in Opinions

bigdata
mars 22nd, 2018 by La Rédaction

Jean-Philippe du MesnilAvis d’expert par Jean-Philippe du Mesnil, QUODAGIS

Le Big Data est et reste un thème majeur et prioritaire dans l’agenda des DSI notamment dans le cadre de la fameuse « transformation numérique ». Et pourtant, plus de 50 % des projets sont considérés comme des échecs purs et simples, et plus de 75 % n’ont simplement pas atteint les objectifs. En synthèse, seuls 15 % des projets passent réellement le stade de la mise en production.

Et la situation n’est guère plus satisfaisante côté fournisseurs avec les principaux acteurs qui affichent un bilan financier avec des pertes significatives et en hausse ! Il est urgent pour les clients de s’entourer de personnes formées avec un vrai retour d’expérience sur ces technologies et de revoir les démarches, notamment le développement souvent incontrôlé et à outrance.

Car la pression sur le Big Data va encore s’accroitre, car l’effervescence augmente autour de la GDPR (« réglementation du droit à l’oubli pour les données personnelles ») et ce n’est pas près de se terminer ! La mise en œuvre de la GDPR est devenue un sujet de « préoccupation » des DSI des entreprises de toutes tailles et de tout secteur. Actuellement, la course contre la montre est déjà lancée pour s’informer et comprendre les enjeux pour les retardataires ou pour s’entourer (DPO, juriste, consultant…) pour les plus avancés. Et c’est déjà très compliqué à gérer sur le fond (les enjeux) et sur la forme (les ressources). Et il y aura à mon sens une seconde vague au moins aussi forte avec la gestion de l’impact majeur dans la plupart des cas sur l’infrastructure existante notamment sur le stockage primaire (les données) et secondaire (archivage, sauvegarde).

Et au-delà de la GDPR, l’IA arrive !

Les dépenses mondiales consacrées aux systèmes d’IA ont cru de 60 % en 2017. Les applications cognitives et d’IA vont donc impacter fortement les principaux composants d’infrastructures IT (serveurs, stockage, réseau), notamment pour le traitement des données (collecte, analyse, accès) des données structurées et non structurées, c’est-à-dire le Big Data pour faire simple. Et lorsque l’on sait que 70 % de ces projets sont des échecs lors du passage en production… Mais cela, je l’ai déjà dit…

Les fameux gains et ROI liés aux projets de Big Data ne coulent donc pas de source. Il convient de bien comprendre le marché et ses évolutions afin que le Big Data puisse tenir ses promesses. C’est dans ces conditions qu’une gouvernance performante de la data sera possible et que de nouveaux gisements de croissance seront enfin possibles pour les entreprises de toutes tailles.

Posted in Opinions

mars 22nd, 2018 by La Rédaction

Baptiste SimonAvis d’expert par Baptiste Simon, Directeur Technique Cloud & Services Managés – Flow Line Technologies – SCC

L’usage du Cloud public se démocratise, les entreprises en perçoivent les gains, du moins au niveau de l’infrastructure. Toutefois, dans leur transformation digitale, elles se doivent d’aller encore plus loin en transposant aussi leurs applications vers le Cloud… Mais cette tâche s’annonce délicate et demande d’être menée de manière industrielle.

Bien que les entreprises aient aujourd’hui assimilé les principaux gains et avantages des Clouds publics en termes d’infrastructure, elles n’ont pas forcément l’expertise suffisante pour bénéficier de toute la valeur ajoutée que renferment ces plateformes, notamment au niveau applicatif. En effet, le Cloud public ne se résume pas seulement à des ressources machines et serveurs, la transformation digitale des entreprises passe aussi par le transfert des applicatifs dans le Cloud. Et c’est sur ce point plus précisément que le bât blesse.

Comment l’entreprise doit repenser, refondre et redévelopper ses applications afin que celles-ci soient facilement transposables dans un Cloud public ?

En interne, il est souvent compliqué de s’engager dans cette voie par manque de compétences et de ressources humaines dédiées. Il est donc crucial de prendre du recul voire parfois d’être accompagné pour identifier les assets applicatifs existants et les transposer vers le Cloud public nativement ou en les redéveloppant.

Sur un marché empreint à des nouveaux usages comme l’IoT et le machine learning, nous assistons par ailleurs à un retour du développement, car les progiciels existants ne sont pas forcément adaptés à ces nouveaux besoins. En ce sens, il est important d’être le plus agnostique possible (dans la mesure du raisonnable), mais aussi d’accompagner cette transformation digitale par une approche sur mesure. Cette dernière permettra à des applications de fonctionner dans le Cloud. Il sera aussi important de prendre en compte les nouveaux aspects liés à l’exploitation, à la maintenance et à la gouvernance de la plateforme Cloud utilisée.

Vers une industrialisation des applications dans le Cloud

Ce mouvement des applications vers le Cloud tend donc à s’industrialiser. Il est encouragé par le simple fait que les entreprises n’hésitent plus à créer une application pour répondre à leurs différents besoins. En multipliant ainsi les applications, les entreprises n’ont pas d’autre choix que de les porter en production à grande échelle dans le Cloud. Cela se traduit le plus souvent par une forte automatisation ainsi que la création d’un kiosque de services dédié dans lequel l’utilisateur va chercher les solutions répondant à ses besoins.

Posted in Opinions

rgpd
mars 22nd, 2018 by La Rédaction

Brice VIGUEURAvis d’expert par Brice Vigueur, Directeur des Opérations BPO de Cegedim Outsourcing

Le nouveau règlement sur la protection des données à caractère personnel (RGPD) va largement faire évoluer la gouvernance data des entreprises. Au regard de ces éléments, les services chargés de la relation client doivent s’y conformer et assurer un traitement adapté des données clients. Ce projet doit être mené en un temps record pour être prêt le jour de l’entrée en vigueur de la loi en mai 2018. Read more of this article »

Posted in Opinions

mars 20th, 2018 by La Rédaction

FilippiAvis d’expert par Philippe Filippi, Directeur général de Compart Europe du Sud

Parce qu’ils combinent un nombre croissant de sources d’information, les flux documentaires peuvent comporter des non-conformités aux règles business ou à la réglementation que seuls les utilisateurs métiers peuvent détecter. Mais face à l’accélération de la communication client, ces derniers n’ont plus le temps de contrôler manuellement un échantillon au demeurant pris au hasard pour s’assurer qu’il n’y a pas d’erreur. Les outils modernes de pilotage des usines de production permettent toutefois d’envisager une autre approche, bien plus efficace.

D’une certaine manière, il s’agit de la rançon du succès. Les documents d’entreprise sont aujourd’hui composés à partir d’une plus grande diversité de sources que par le passé. Pour l’envoi d’un relevé de compte par courrier ou en PDF par exemple, le nombre de systèmes d’information impliqué peut donner le vertige. Le progiciel de gestion fournit les données chiffrées tandis qu’un référentiel fournit la mise en page et les éléments visuels. Un autre système se charge d’ajouter les mentions légales exigées par la réglementation et un dernier a pour mission d’insérer les messages marketing… Les directions métiers consacrent beaucoup de temps et d’énergie à concevoir ces modèles de documents et partent globalement du principe que les instructions qui sont données seront respectées en production. Mais il existe, du fait même de la diversité des systèmes d’information concernés, mille et une raisons que cela ne soit pas le cas. Imaginez par exemple l’impact du décalage d’une virgule dans un message personnalisé d’offre de crédit à taux préférentiel intégré à un relevé de compte. Ou songez aux conséquences d’une mention obligatoire manquante en cas de contrôle aléatoire ou de litige. Sans parler du regroupement malheureux dans un même pli d’une lettre de mise en demeure et d’une proposition de crédit ou d’épargne…

Parce qu’elles savent pertinemment que les équipes de production, aussi méticuleuses soient-elles, ne peuvent pas détecter d’elles-mêmes ces anomalies, les directions métiers effectuent des contrôles réguliers en prélevant des échantillons de la production en cours. Mais elles sont bien conscientes que, ce faisant, elles jouent à la loterie. Car cette méthode de l’échantillonnage présente trois inconvénients majeurs. Elle nécessite d’abord du temps, ce dont les organisations métiers manquent généralement, pour vérifier manuellement chaque pli. Même lorsqu’il est limité à un lot de mille enveloppes, un tel contrôle peut prendre jusqu’à deux jours pour être effectués par les équipes métiers. Deux jours pendant lesquelles la production ne peut être lancée. Il s’ensuit des temps morts et une gestion de planning particulièrement complexe pour l’usine de production. Dernier point, et non des moindres, la vérification de l’échantillon ne garantit pas que tous les cas de figure potentiellement problématiques ont été envisagés. Il faudrait pour cela pouvoir vérifier soit un ensemble de plis témoins insérés à dessein dans le flux, soit l’intégralité des plis pour une catégorie de destinataires appelant une vigilance particulière.

L’évolution des outils de pilotage des usines de production documentaire permet aujourd’hui de répondre à cet enjeu de contrôle métier. Reposant sur une plateforme centralisée, cette approche permet d’orchestrer des composants réutilisables couvrant toutes les étapes clés de la chaîne de la production, depuis l’import et la conversion des données jusqu’à la génération du flux d’impression. À cette dernière étape, il est théoriquement possible d’effectuer une ultime vérification. Mais il est nécessaire pour cela d’inverser le paradigme habituel, qui consiste à demander aux équipes de production d’extraire un échantillon pour les métiers puis d’attendre que ceux-ci aient terminé leur contrôle. Cette perte de temps peut désormais être évitée grâce à un module e-approbation appliqué non plus à un document unique mais à l’ensemble d’un flux de production.

Le principe de l’e-approbation est bien connu : il consiste à faire valider le document avant son envoi par un responsable ou un expert à même de détecter les éventuelles erreurs ou non-conformités. Pour reproduire cette capacité à l’échelle d’un flux documentaire un visualiseur peut permettre à un utilisateur métier, sans compétences techniques, d’accéder directement au flux documentaire en préparation. Ce visualiseur permet à l’utilisateur d’effectuer des recherches sur ses propres critères métiers. Il pourra tout aussi bien vérifier tous les plis comportant un insert particulier ou se concentrer, grâce au moteur de recherche intégré, sur les relevés de compte dont le solde dépasse un certain montant.

Sans supprimer totalement le caractère aléatoire du contrôle, cette approche le réduit très fortement. Car ce n’est plus le hasard qui décide de quels plis sont effectivement vérifiés, mais l’utilisateur métier en fonction de ses connaissances, ou des difficultés particulières qu’il s’attend à rencontrer. Le scénario de vérification peut ainsi changer d’une personne à une autre ou d’un flux de production à un autre, réduisant encore le risque qu’une non-conformité passe à travers les mailles du filet. Le second avantage majeur du module e-approbation de Pilot est de permettre un partage plus rationnel des responsabilités. Une fois son travail de préparation effectué, l’équipe de production peut pleinement passer la main aux utilisateurs métiers, car ce sont eux qui, en définitive, déclencheront la mise effective en production. Chaque équipe peut ainsi se concentrer sur ce qu’elle doit faire, et sans attendre le feu vert de l’autre. L’e-approbation couplée au pilotage intelligent de l’usine documentaire permet ainsi de réduire considérablement les délais avant l’envoi des documents. Elle augmente ainsi l’agilité de l’entreprise vis-à-vis de ses clients en même temps qu’elle renforce la sécurité métier des envois.

Posted in Opinions

juin 9th, 2016 by La Rédaction

Le temps de réponse et la disponibilité des sites et des applications mobiles sont les clés d’une expérience utilisateurs satisfaisante. Pour les marques qui offrent à leurs clients une expérience digitale décevante, les conséquences sont immédiates : 46% des clients sont prêts à abandonner leur achat à la moindre latence ; 81 % de la génération Y abandonneront leur panier si le site ou l’appli mobile bugge ou est trop lent et quittent un site si la page demandée ne s’affiche pas en 3 secondes ou moins.
À l’approche des vacances estivales, Dynatrace, leader mondial de l’APM et spécialiste de la performance digitale, a mesuré les temps de réponse de quelques sites majeurs dans le secteur du e-tourisme et vous livre les résultats dans cette infographie.

 

Sites-tourisme-performance-digitale-berne-F

Posted in Actualités, Opinions

décembre 11th, 2015 by La Rédaction

DidierLavoine-DigoraAvis d’expert par Didier Lavoine, Directeur Technique de Digora

Le « Big Data » figure en tête de l’agenda des entreprises, sur un marché qui progresse de 25 % par an selon le cabinet d’étude IDC. Cet engouement peut laisser penser que de tels projets se mettent en œuvre aisément. Il n’en est rien et les entreprises en sont bien conscientes, en particulier en ce qui concerne les aspects techniques et les infrastructures. Plusieurs études (1) le révèlent, ce sont là les obstacles les plus redoutés par les entreprises. Read more of this article »

Posted in Opinions Tagged with: ,

décembre 8th, 2015 by La Rédaction

L’innovation à tout prix a un coût et un rendement souvent limité. Le milliardaire en sait quelque chose et mise généralement sur des plateformes éprouvées pour valoriser ses investissements. Et si les DSI en faisaient autant avec le mainframe ?

Véronique Dufour-Thery, Directeur Europe du Sud pour Compuware

Véronique Dufour-Thery,
Directeur Europe du Sud pour Compuware

 

 

 

 

 

 

Read more of this article »

Posted in Opinions Tagged with: ,

novembre 26th, 2015 by La Rédaction
Véronique Dufour-Thery, Directeur Europe du Sud pour Compuware

Véronique Dufour-Thery,
Directeur Europe du Sud pour Compuware

« Selon une étude récente 88% des entreprises voient le mainframe comme un atout économique majeur de la prochaine décennie »

 

 

 

 

 

 

Read more of this article »

Posted in Opinions Tagged with: ,

Cyres
octobre 16th, 2015 by La Rédaction

Guillaume Polaert, ingénieur Ingensi - Cyrès Groupe

Avis d’expert par Guillaume Polaert, ingénieur Ingensi – Cyrès Groupe


Les technologies Big Data se multiplient, les algorithmes prédictifs sont de plus en plus puissants et la responsabilité entourant l’exploitation de la donnée pèse lourd sur les épaules des entreprises. Quelle démarche adopter afin de ne pas franchir des limites incertaines tout en maintenant son processus d’innovation
?

Read more of this article »

Posted in Opinions Tagged with: