Archive for the ‘Entreprise’ category

CES ASIA: LA FRENCH TECH JOUE EN TETE

17 mai 2016

A l’occasion du CES Asia qui s’est déroulé à Shanghai , la French Tech représentait la 1ère délégation de startup étrangères

DSC02059

La deuxième édition du CES Asia, qui s’est tenue pendant 3 jours au début du mois de  Mai à Shanghai accueillait probablement plus de 32000 visiteurs et près de 400 exposants essentiellement Chinois dans un énorme et moderne parc  d’expositions  situé à l’Est de la ville. La barrière de la langue a un impact important ce qui explique une proportion plus faible d’exposants étrangers, mais cette caractéristique permettra ultérieurement de mieux cerner  les tendances de l’industrie numérique chinoise et d’élaborer quelques comparaisons, toutes proportion gardées, entre  les grands traits de ce CES Asie et  le traditionnel CES de Las Vegas.

En effet, 50 sociétés Américaines et 20 sociétés Françaises se sont déplacées, mais 17 + 2 des sociétés Françaises présentes sur le salon étaient des startups. Parmi les sociétés US se trouvait quelques poids lourd et marques connues comme Intel, Garmin, Chevrolet, Jabra et parmi les françaises, Valéo, mais c’est dans le Startup Park que la France a brillé.

Le startup Park sous la bannière French Tech Shanghai

Sacha Dunas, de la société World Events Agency était l’organisateur de l’espace French Tech de ce CES, aidé par Stéphane Monsallier  directeur de la société System in motion… Tous deux habitent sur place depuis plusieurs années.  En tant que French Tech Shanghai, ils se sont appuyés sur une petite équipe de Français locaux bénévoles et  ont mis en place les stands et recruté 17 startups en moins de 4 mois,  avec l’aide de la seule bannière French Tech, qui leur a permis de » déplacer les montagnes », sans moyens financiers. En parallèle, 2 autres startup Françaises sont venues par leurs propres moyens sans bénéficier des conditions spécifiques de la French Tech, offertes par le CES.  Les équipes de Gary Shapiro, le CEO du CES, on en effet accordé à la French Tech un régime particulier compte tenu du nombre de startup qui étaient présentes.

Il faut noter que la quasi-totalité des sociétés « Françaises » présentes sont des représentations locales de sociétés Françaises. Leurs objectifs sont donc sensiblement différents des objectifs des sociétés qui exposent sous la bannière French Tech de l’Eureka Park à Las Vegas.  J’ai rencontré et interviewé plusieurs responsables de ces sociétés, tous Français.  Ils feront l’objets de plusieurs articles consacrés a cette manifestation.

Voir ci-dessous l’interview de Sacha Dunas et de Stéphane Monsallier responsables French Tech Shanghai.

 

LE TOURISME FRANÇAIS S’EST APPROPRIE INTERNET

17 mars 2016

Les Français ont diminué sensiblement leur budget vacance en 2015, mais ils utilisent de plus en plus Internet pour partir plus souvent et à des coûts réduits, en favorisant les offres packagées.

2015-08-10 10.03.12

Le site de voyage Opodo (groupe Odigeo), représenté par Quentin Bacholle, son Directeur Général France et la Société d’Etudes Raffour Interactif spécialisée dans le tourisme et le transport, présentaient les résultats d’une étude sur les habitudes de vacance des Français. Ce Barometre Opodo est partie d’une étude annuelle, menée par Guy Raffour depuis 14 ans, selon les règles de l’art, grâce à un entretien à domicile de près d’une heure, sur un échantillon statistiquement représentatif de 1030 Français de plus de 15 ans. Elle ne concerne que les activités de voyage et de séjour payant ou non payant pour les loisirs exclusivement, c’est-à-dire les vacances…

Léger tassement des départs et des budgets vacances

Il ressort de l’enquête, effectuée en février dernier, que les foyers Français en 2015 ont sensiblement réduit leur budget vacances, celui-ci passant de 2014 à 1714 € par an (voyage et séjour compris) soit une baisse de 13%, et près de 700000 personnes de moins qu’en 2014 sont parties en vacances. En effet, sur une population statistiquement valide de 53,5 millions d’habitants (en augmentation de 0.3 m sur 2014),  c’est 32.2 millions, soit 60.1%, qui sont partis pour un séjour court ou long soit une baisse de 1.7% par rapport à l’année précédente. A noter que depuis plusieurs années, le taux de départ en vacances des Français oscille entre 59 et 61%.

Analysés un peu plus en détail, ces chiffres représentent une réalité plutôt positive, montrant le dynamisme du secteur du tourisme en France, et en Europe. « Le secteur aux Etats Unis s’est consolidé explique Quentin Bacholle. Par exemple, la réservation de vols est effectuée sur seulement 3 plateformes différentes, alors qu’en Europe où le marché est moins consolidé, il y en a quelques dizaines…qui servent quelques centaines d’acteurs dont nous faisons partie…  (Voir pour ceux qui le connaissent, une certaine analogie avec le marché des télécom… !). Ceci permet une offre plus concurrentielle, plus diversifiée et plus flexible, et c’est ce que recherche l’utilisateur…». Il précise que pour Opodo, le panier moyen pour un vol est passé de 532€ à 516€, probablement à cause de la baisse des tarifs d’avion et de la lente montée des compagnies low cost et des transports alternatifs.

2015-08-10 10.05.06

Un marché dynamique malgré la crise et la situation géopolitique

L’enquête analyse séparément les séjours de courte durée (1 à 3 jours) et les séjours de moyenne ou longue durée (4 jours ou plus). Il semble que malgré les problèmes de budgets, les Français partent plus, mais ils sont plus sélectifs de façon à combiner un vol et un séjour qui leur apportera « une expérience optimale de vacances ». « On constate une hausse assez significative des séjours de courte durée », explique Guy Raffour. Interrogés sur les risques d’attentats, il semble que les français aient intégré ce facteur puisque 62% d’entre eux répondent que cela n’aura pas d’influence sur leurs perspectives en 2016 alors que 27% indiquent qu’ils en tiendront compte dans leur choix. Chez Opodo, on constatait une baisse assez importante après le 13 novembre dernier, mais très rapidement, la tendance s’est estompée le mois suivant. Globalement, les destinations de vacances ont pourtant changé de façon notoire entre 2014 et 2015 puisque si l’Espagne et la Grèce restent les destinations privilégiées des Français avec la République Dominicaine, la Tunisie et la Turquie ont disparu de la liste entre 2014 et 2015 au profit de la Thaïlande et du Maroc. Les Etats Unis ont aussi perdu leur caractère attractif à cause de la hausse du dollar et des coûts de séjours sur place.

Parmi  les Français qui sont partis, on note plusieurs tendances, principalement liées aux conditions économiques connues en 2015. Partir est un besoin vital pour eux et ils s’appuient sur un budget vacances pour faire leurs choix en faisant varier les paramètres. L’enquête met en évidence une assez forte progression de 2% des séjours courts (19.8 millions de personnes en 2015 contre 18.6 millions en 2014). Les séjours longs gagnent aussi 2% avec 36% de ceux qui sont partis en 2015.  Ce chiffre est confirmé par Opodo qui constate en parallèle une baisse des séjours longs de plus de 2 semaines. Quentin Bacholle mentionne le phénomène « city break » qui pousse les français à partir plus souvent pour un long week end (séjours court) dans une ville européenne.

Il est certain que l’utilisation d’Internet permet aux français qui cherchent à partir en vacance d’optimiser plus facilement leur voyage en fonction du budget fixé au départ, leur permettant de trouver les meilleures prestations au meilleurs prix et surtout leur permettant de simuler en ligne leur voyage grâce aux informations sur les offres diversifiées qu’ils trouvent sur Internet. Pour une agence de voyage en ligne comme Opodo dont l’activité principale et le vol, la principale préoccupation du management est d’être en mesure d’apporter de l’information (y compris collaborative), de faire des propositions sous forme de package qui intègre des offres variées et diversifiées sur les séjours et d’autres services répondant aux préoccupations de leur client.

2015-08-10 09.32.57

La France est toujours en retard sur Internet. Le m-tourisme décolle

Globalement, l’enquête montre que 46% des réservations globales sur le voyage vacances (tous types de prestations confondues et quelque soit le support utilisé) en France utilisent Internet, en dessous du taux moyen européen qui est de 52%. Guy Raffour constate que 15% des français qui partent en vacances n’utilisent pas Internet et il indique que le rattrapage se fait lentement, alors que le e-tourisme croit fortement, montrant une évolution sensible du mode de préparation et de consommation des vacances.  Quentin Blacholle mentionne quant à lui que le m-tourisme (information et réservation sur le mobile) est en forte croissance. « Si on regarde chez Opodo la part de réservations sur smartphone ou tablette, dit-il, nous avons atteint le seuil de 25%, alors que nous étions à 15% en 2014 et 8% l’année précédente. Nous pensons atteindre rapidement 40% alors que la moyenne de l’utilisation du mobile pour le secteur du voyage en ligne est à 18%. ».

L’enquête montre en effet que Internet sert non seulement à accumuler des informations sur les destinations et les voyages et séjours de vacances long ou court mais aussi de plus en plus à effectuer et suivre la ou les réservations liées aux séjours de loisir. Tous les chiffres présentés sont en hausse assez nette. Des 32 millions de Français qui sont partis en 2015, 77% (24.7 millions de personnes, plus 6 points sur 2014) ont utilisé Internet à un moment ou un autre soit pour préparer soit pour réserver un ou plusieurs séjours de tourisme de loisir en 2015. Les agences en lignes doivent alors être en mesure de proposer des promotions géo-localisées, des prestations expérimentales et des contenus collaboratifs au bon moment pour déclencher l’intérêt sous forme de réservation et ensuite de convertir en achat.

2015-08-10 09.42.56.jpg

Sur l’ensemble de la population des français qui sont partis pour leurs vacances, 39% (un gain de 7 points sur l’année précédente) ont utilisé un smartphone ou une tablette pour effectuer leurs recherches et réserver leur voyage, ce qui confirme l’importance de l’accès en temps réel aux disponibilités ainsi que l’aspect hautement concurrentiel de ce marché mentionné par le DG de Opodo. Le téléphone cellulaire est aussi utilisé tout au long du voyage pour les tickets d’embarquement, pour recevoir des alertes ou faire des achats de services complémentaires durant le séjour comme location de voiture ou réservations diverses. Toujours de l’ensemble de la population des Français qui sont partis, 49% (soit 15.8 millions de personnes) ont réservé et payé intégralement tout ou partie de leurs séjours en ligne, un gain de 4 points par rapport à 2014 (1 millions de personnes).

Une startup face à des grands comptes Français au CES

11 janvier 2016

Henri Seydoux, CEO de Parrot, etait accueilli par la mission CES 2016 conduite par Xavier Dalloz. 7 minutes à ne pas manquer…

Devant 200 responsables grands comptes Français qui constituaient la délégation Française menée par Xavier Dalloz, Henri Seydoux s’est exprimé sur ce qu’une startup comme celle qu’il a crée peut attendre des grands comptes et ce que les grands comptes peuvent attendre de startups comme Parrot.

Quels enjeux autour des objets communicants et le futur de l’Internet? Une conférence ASPROM sur L’internet des Objets

15 octobre 2012

Les 24 et 25 Octobre prochain, Roland Dubois, président de l’ASPROM, organise une nouvelle conférence où seront examinés les enjeux et les mécanismes de l’évolution d’un ensemble de technologies, de produits, services et usages regroupés sous le terme d’objets communicants ou encore Internet des Objets. La vision de l’Internet des objets n’est pas nouvelle. En effet, depuis plus de 15 ans, dès qu’Internet a été considéré comme un phénomène irréversible, l’idée de rendre les objets communicants trottait dans beaucoup d’esprits inventifs. On se souviendra du Frigidaire connecté à Internet, réalisé en 1999, capable d’alerter la ménagère lorsqu’il n’y a plus de lait, de beurre ou que des produits sont périmés.  Seulement, les technologies de communications sans fil étaient encore insuffisantes, les puces radio trop encombrantes, trop chères ou trop gourmandes en consommation électrique, les infrastructures étaient insuffisantes, les prétendus standards d’interopérabilité n’étaient pas des standards et les usages rentables étaient encore à imaginer.

Besoin d’une nouvelle loi de Moore autour des infrastructures?

Pourtant, progressivement, avec l’arrivée du WiFi, de la téléphonie cellulaire, des technologies de télécommunications sans fil à basse consommation, avec la miniaturisation, l’intégration plus poussée et la montée en puissance des processeurs et le développement d’un grand nombre de nouvelles technologies, la mise en œuvre de projets autour des objets communicants aux ambitions bien définies, précises et économiquement viable devient plus acceptable. La généralisation, la montée en puissance et la baisse des coûts des télécommunications fixes et mobiles qui s’opèrent grâce à la fibre et les technologies sans fil de nouvelle génération semblent opérer comme une nouvelle loi de Moore dont les effets seraient aussi larges et profonds sur  l’Internet des Objets que les effets qu’elle a eus sur l’industrie du PC.

Les standards et les usages sont clés

ASPROM se propose donc d’examiner en profondeur les enjeux que posent ces nouvelles évolutions technologiques et d’examiner la manière dont les usages vont évoluer et les grandes directions vers lesquelles ils se dirigent. L’un des aspects les plus importants dans cette évolution sera la manière dont les standards vont se développer autour de quelques technologies clé, de façon à permettre de larges déploiements, dans les entreprises et au delà des frontières territoriales. Les différents aspects technologiques et économiques du M2M seront ainsi traités par une quinzaine de spécialistes, de chercheurs et de responsables en entreprises opérant dans ce domaine. Plusieurs secteurs, dont celui de la santé, de l’habitat et de la ville, de l’énergie et de l’environnement seront abordés et examinés de façon plus précise.

La conférence se déroulera à la FIEEC, 17 rue Hamelin, 75016 Paris les 24 et 25 octobre

Programme  et inscription ici :  http://www.asprom.com/seminaire/internet-futur.pdf

PROJETS INNOVANTS AUX BELL LABS D’ALCATEL-LUCENT

15 mai 2011

Les Bell Labs sont les laboratoires de R&D de Alcatel Lucent. Comme le CNET de France Télécom ou les laboratoires de NTT au Japon, les Bell Labs ont été, jusqu’à la fin des années 90, un haut lieu de la recherche et développement en matière de télécommunication dans le monde. Leurs recherches ont principalement permis d’inventer la téléphonie et de développer les réseaux et l’usage du téléphone dans le monde. Ils ont entre autres à leur actif l’invention du transistor, du système d’exploitation Unix et du langage C. Depuis l’ouverture des télécommunications, l’arrivée d’Internet et la convergence des réseaux vers le tout IP, ces Labs ont du s’ouvrir et sont entrés en concurrence avec les laboratoires de recherche des entreprises du monde entier qui développant des technologies ouvertes pour Internet. Acquits par Alcatel lors de la fusion avec Lucent, les Bell Labs ont maintenant une assise Française que les responsables cherchent à enrichir et à développer.

Cinq grands thèmes pour des projets et une réflexion menée chez Orange Labs

Alcatel-Lucent, une fois par an ouvre son site de Villarceaux aux visiteurs pour dévoiler un certain nombre de projets innovants développés par ses ingénieurs, en relation directe avec les besoins immédiats de la compagnie ou plus éloignée. Cette fois-ci, une quarantaine de projets assez techniques étaient regroupés autour de 5 thèmes majeurs : « changer le monde » « réseaux de haute capacité » « plus de virtualisation et de connectivité sur les réseaux » « quoi après Twitter et Facebook ? » « jouer avec les Bell Labs ».  En parallèle, quelques speakers étaient invités a présenter leurs vues sur l’innovation et la technologie. Valerie Peugeot, directrice du laboratoire de sciences humaines chez Orange Labs, faisait une présentation incitant à la réflexion sur les rapports entre les hommes et la technologie, et notamment sur le basculement provoqué par la généralisation des réseaux de communication ouverts et par l’intrusion profonde de la technologie dans toutes les activités humaines. J’ai enregistré cette présentation d’une demi-heure que je compte mettre sur ce blog très vite.

Une première mondiale, 200Gb/s sur 2400 km de fibre

C’est dans une pièce parcourue de réseaux de fibre jaune, d’appareils de mesure, de racks  et de baie optiques qu’une petite équipe d’ingénieurs cherche à améliorer les capacités de transport des fibres optiques. Oriol Bartran Pardo, jeune ingénieur membre de cette équipe m’explique que les réseaux de fibre optique dans le monde sont de 2 types, les réseaux sous marin et les réseaux terrestres. Là où le transport des données sur les réseaux terrestres peut être réactivé par des relais, les réseaux sous marins doivent assurer le transport sans réactivation sur de très longues distances. On transmet les données sur la fibre en utilisant « une longueur d’onde » qui aujourd’hui peut facilement délivrer 100 Gigabits par seconde sur plusieurs milliers de kilomètres sans rafraichissement. Une fibre de bonne qualité peut recevoir jusqu’à 80 longueurs d’onde qui chacune transmettent des données de façon indépendante.

Vers les 400 Gigabits par seconde, soit 32 terabits/s pour une seule fibre

Cela signifie que chez l’utilisateur, l’installation d’une seule fibre optique lui donne techniquement la possibilité de recevoir jusqu’à 8 terabits de données par seconde…c’est à dire l’équivalent de 200 milliards de films à la seconde… (à condition que les opérateurs s’équipent de routeurs et de relais capables de supporter ce trafic et qu’un terminal soit capable de les stocker)  Oriol Bertran-Pardo indique que son équipe a trouvé le moyen de faire passer jusqu’à 200 gigabits par seconde sur une longueur d’onde et a vérifié que les données pouvaient être récupérées sans pertes irrémédiables jusqu’à 2400 km de distance, sans rafraichissement. « C’est une première mondiale, me dit-il, et on ne l’a pas encore publiée »… On peut donc maintenant passer 16 terabits de données par seconde sur un seul brin de fibre sous marine, sur une longueur de 2400 km d’un seul tenant, sans répeteur…  Il m’indiquait que les recherches du laboratoire permettaient d’envisager de passer  400 Gibagits par seconde sur une longueur d’onde, soit 32 terabits par seconde sur une seule fibre…

Traduction automatique en temps réel sur la ligne

Wetalk est un projet de recherche sur lequel Tony Guez travaille depuis plusieurs mois. L’objectif est de permettre une traduction automatique et en temps réel d’une conversation téléphonique de façon à ce que deux personnes qui ne parlent pas la même langue puisse se parler par téléphone, comme si chacun parlait la langue de l’autre. L’application qui fonctionne sur un serveur et nécessite une application client fonctionne avec des terminaux du commerce et le réseau téléphonique normal. Inutile d’avoir un micro haute fidélité et il pourrait fonctionner sur Skype par exemple. L’application fonctionne dans deux sens, elle réalise une traduction instantanée de la conversation de l’appelant et l’écrit en texte (speech to text) sur l’écran du terminal de chacun des interlocuteurs. Parallèlement, une traduction en synthèse vocale de ce que dit l’appelant est réalisée et transmise dans la langue de l’appelé qui peut donc écouter ce que lui dit son correspondant et en même le lire sur l’écran, dans sa langue.  Le retour s’effectue selon le même processus de la langue de l’appelé vers la langue de l’appelant… Le système, encore en développement, nécessite un rapide apprentissage du système lui permettant de s’adapter à l’élocution de l’appelant et de l’appelé. Il fonctionne avec des phrases courtes et demandes certaines précautions lorsque l’un ou l’autre des interlocuteurs parle… Il y a parfois quelques ratés (l’effet demo…!) mais ça marche plutôt bien…  Karine Calvet, Vice Président des ventes France chez Alcatel-Lucent précise que les téléphones Androids sont particulièrement bien adaptés à ce système, mais que d’une façon générale, tous les smartphones, les tablettes et les PC pourront l’utiliser à terme.

Les smartphones encore plus smart

Dimitre Davidov Kostadinov, ingénieur aux Bell Labs, a développé l’application AppsLikeU pour les smartphones qui permet à l’utilisateur d’accéder facilement aux applications dont il a besoins, en fonction de l’endroit où il se trouve ou d’une situation particulière. L’utilisateur peut ainsi organiser et préparer son smartphone en fonction de sa journée, en sélectionnant les applications dont il aura besoin. Par exemple, il doit aller à Bruxelles ou à Berlin le lendemain, il va donc définir sur son smartphone une zone géolocalisée à Bruxelles et à Berlin et pré-sélectionner les applications dont il aura besoin pour chercher un hôtel, voyager par le métro, chercher un taxi, trouver un restaurant dans une certaine zone de la ville, une boutique, une ressource, etc… Une fois à Bruxelles, ou à Berlin, il pourra accéder simplement  aux applications associées à cette zone  sans avoir à les rechercher dans une bibliothèque de milliers d’applications. Il aura donc très facilement accès à la bonne application, au bon moment, correspondant à la zone où il se trouve. Etant Géolocalisée, le système pourra aussi lui pousser certaines applications liées au contexte dans lequel il se trouve. Cette possibilité peut être contrôlée entièrement pas l’utilisateur qui peut l’arrêter. L’équipe a travaillé avec des designers pour dessiner des interfaces très simple et spontanées d’utilisation. Cette application permet ainsi à l’utilisateur de distinguer les applications qu’il utilise quotidiennement, quelque soit l’endroit où il se trouve, des applications qu’il utilisera occasionellement en fonction de ses déplacements ou d’évènements spécifiques particuliers.

Partagez les vidéos dans l’entreprise

Tivizio est une infrastructure de réseau social d’entreprise qui permet de poster et de partager des vidéos au sein de l’entreprise, pour un groupe défini de personne. Conçue par 2 ingénieurs des Bell Labs, Fabrice Poussière et Erwan Baynaud, cette application est hébergée dans le cloud sur des serveurs Amazon. Elle permet de créer un réseau social à l’intérieur de l’entreprise pour poster des  échanger des vidéo et les échanger au sein d’un groupe particulier plus ou moins étendu. Chaque employé peut donc partager avec les gens qu’il souhaite dans l’entreprise les vidéos qu’il a posté. On peut ainsi envisager que des techniciens de maintenance sur le terrain postent des vidéo d’appareils ou de systèmes à maintenir qui puissent être partagées en temps réel avec les services techniques de l’entreprise. Un vendeur peut mettre sur ce réseau des vidéos spécifiques qu’il souhaite partager avec ses prospects. Il est aussi possible aux personnels de l’entreprise de créer et partager des vidéos qui pourront être utilisées dans la formation de partenaires ou de clients. Le service de communication peut mettre toutes les vidéos accessibles et utilisables par la presse. Les usages sont nombreux et quasiment illimités mais restent entièrement adaptés aux besoins et aux exigences de l’entreprise. Il est aussi possible de développer des outils autour de cette application aussi bien pour éditer les vidéos que pour offrir d’autres outils de collaboration et de communication. Tivizio fonctionne déjà en beta test sur 2 sites pilotes.

Fini le roaming qui tue    

Yann Mac Garry était entouré ce matin d’un petit groupe de responsables informatiques dont l’un mentionnait s’être fait sérieusement houspillé par ses services financiers à cause d’une note de roaming assez astronomique de son smartphone lors d’un récent voyage chez un fournisseur au Sénégal… Ingénieur aux Bell Labs à Lanion, un fief de France Télécom, Yann Mac Garry a développé une application appelée Always Home qui comme son nom l’indique, permet à un utilisateur d’aller à l’étranger mais permettant à son téléphone de rester virtuellement en France, sans avoir à repasser par l’opérateur qui héberge le MVNO. Le roaming résulte pour les opérateurs en place à doubler, tripler ou plus même, le coût des communications en dehors du territoire d’origine de l’utilisateur. « Voila qui ne fera pas trop plaisir à France Télécom dit l’un d’entre eux… » « Cette solution s’adresse essentiellement aux MVNO répond-il, car elle leur permet de créer des solutions de roaming économiques et concurrentielles. » Composée d’une carte SIM spécifique et d’une application qui reste sur le HLR (base de données des abonnés du réseau) du MVNO Always Home permet à ce dernier de créer son propre système de roaming et de passer ses propres accords spécifiques avec des opérateurs de pays étrangers puis de proposer aux utilisateurs un roaming vers ce pays à des prix plus intéressants que les tarifs des opérateurs en place. L’utilisateur n’a pas besoin de changer de carte SIM et il aura une facture prévisible lors de ces déplacements à l’étranger.

Jonathan Benassaya, « l’internaute est devenu un A.D.D »

14 avril 2011

Le co-fondateur de Deezer faisait hier une présentation lors d’une rencontre organisée par l’Association France Amérique Jeunes. Connaissant Jonathan puisqu’il intervient comme Mentor dans le Founder Institute www.founderinstitute.com dont je dirige les destinées à Paris, j’ai fait le déplacement vers le superbe Hôtel Le Marois qui héberge l’association France Amérique rue Franklin Roosevelt à Paris. Une soixantaine de personnes étaient là, essentiellement des jeunes, bien que quelques « ancêtres » dont je fais partie  avaient abandonnés leur feuilleton du mercredi soir à la Télé pour se rafraichir un peu les idées.

Jonathan y a parlé essentiellement de la création d’entreprise, de son expérience de créateur, et il fait une analyse de l’évolution d’internet tout à fait pertinente et judicieuse,  qu’un bon nombre de chefs d’entreprises et plus particulièrement des responsables internet dans les grandes entreprises pourront utiliser avec beaucoup d’intérêt…
« En 1995, Internet était l’internet des pages, l’internet des annuaires…. il est ensuite devenu l’Internet des moteurs de recherche, où l’on a mis de l’intelligence… de 2000 à 2005, il est devenu l’internet social où les gens peuvent interagir entre eux… Aujourd’hui, Internet entre dans une nouvelle ère parce qu’il est devenu mon Internet, c’est Internet qui s’adapte à moi, c’est mon Internet…     Le web est devenu une porteuse…. »

« L’internaut est aujourd’hui atteind de A.D.D, ce qui signifie en anglais « attention deficit disorder… », il a du mal à faire  une seule tâche à la fois….  c’est donc tout un programme qui n’échappera pas à ceux qui réfléchissent sur l’avenir d’internet…

J’ai enregistré la présentation de Jonathan et plutôt que d’en faire un transcript long et fastidieux à lire, je le mets tel quel, sans coupure, sur cette page pour l’écouter.

Elle dure plus d’une heure avec les questions réponses…

Ecouter le podcast (après quelques secondes de téléchargement)

Le Cloud, comment tenter de s’y retrouver

7 mars 2011

Visualization of the various routes through a ...

Complexite du Cloud

Nouveau mot à la mode pour les responsables informatiques (des entreprises ou du secteur public) les constructeurs, les opérateurs et les éditeurs de logiciels, le Cloud est une nouvelle version de la quête qui provoque l’adaptation de l’informatique au service des entreprises, ceci depuis que l’informatique existe.  Donc pour beaucoup, rien de nouveau sous le soleil, le Cloud est un nouvel habillage marketing crée par les constructeurs pour susciter et justifier les renouvellements permanents de matériel et la migration vers de nouvelles applications dans les entreprises et les administrations dont les besoins ne cessent d’évoluer. Donc, pas de révolution à priori, malgré les communiqués tonitruants. Reste à savoir ce que recouvre le Cloud, que signifie-t-il en termes de changement dans les entreprises et vers quoi cette nouvelle phase de la migration nous conduit-elle.

Un peu d’histoire, l’informatique a la demande

La société d’analyse Markess International étudie le phénomène du Cloud depuis 3 ans au moins, depuis que ce terme est apparu dans les discours et que l’offre des constructeurs s’est sensiblement modifiée pour le mentionner. Dès 2000, les prémisses du Cloud apparaissaient avec la notion d’ASP, elle-même née de l’utilisation d’Internet dans les entreprises et de la standardisation des API de haut niveau (REST). Elle permet l’accès par plusieurs utilisateurs à des applications en ligne sur un browser Internet. A noter que l’ancêtre de l’ASP est le vieux « service bureau ». Avec la généralisation d’Internet à haut débit,  le mode ASP a été remplacé et largement diversifié par le SaaS ou « Software as a Service », instituant la notion de logiciel à la demande dont on parlait déjà depuis plusieurs années.

Un modèle très riche en modes opératoires

Ce modèle est très riche en modes opératoires pour les éditeurs de logiciels qui ne manquent pas d’imagination et de créativité pour raffiner et diversifier leurs business modèles. C’est en 2006, sous l’impulsion d’Amazon avec son service AWS (Amazon Web Service) que le Cloud tel qu’on l’entend aujourd’hui est apparu aux yeux de tous. Amazon y a introduit la notion d’infrastructure et de plateforme qui sont présentées, accédées, gérées et facturées de façon spécifique. Puis très rapidement, les opérateurs de télécommunications ont vu sans ce nouveau mode de gestion des ressources informatiques les avantages dont ils pouvaient tirer dans la mesure où il est basé sur les réseaux de communications Internet à haute vitesse et à haute capacité, réseaux qu’ils possèdent. Ils en ont été l’un des plus forts vecteurs de développement.

Le Cloud encore peu utilisé en Infrastructure

Markess International s’est intéressé à l’ensemble du Cloud et non pas simplement à la partie la plus connue qu’est le SaaS, c’est-à-dire les applications à la demande. Emmanuelle Olivié-Paul, Directrice associée de Markess, présentait une étude plus particulièrement orientée sur les aspects infrastructure du Cloud, réalisée en janvier et février 2011 auprès de 150 décideurs Français dont 110 affirment pratiquer le Cloud à un niveau ou un autre. Cette étude, réalisé avec l’aide de 6 sponsors (IBM, Microsoft, NTT communications, NTT Europe, Intel et Ecritel) s’est aussi appuyé sur l’interview de 75 responsables du secteur de l’offre de Cloud.

Pour définir le Cloud, elle utilise la définition la plus courante, publiée par le NIST (National Institute of Standards and Technologies). « Le Cloud est l’accès via le réseau et à la demande à des ressources informatiques (Serveur, stockage, sauvegarde, réseau, poste de travail) dénommées IaaS (Infrastructure as a Service), à des environnements de développement (bases de données, moteurs applicatifs, accès, identité, sécurité et processus collaboratifs) appelés PaaS (Platform as a Service) et/ou à des applications (CRM, ERP, Compta, appli métiers, collaboratif bureautique, RH, etc) appelés SaaS (Software as a Service). » Ceci ne préjuge pas des modes de commercialisation des applications SaaS en mode single ou multi-tenant. .

Le SaaS mène la dance du Cloud

En 2011, si 31% des organisations Françaises (publiques et privées) ont recours au SaaS, seulement 5% utilisent le mode IaaS et à peine 2% s’appuyent sur un PaaS. La pénétration du SaaS est maintenant confirmée dans les grandes entreprises. Il s’est aussi bien implanté dans les PME de moins de 50 employés. L’utilisation du IaaS semble plus importante dans les entreprises de moins de 10000 salariés, plus particulièrement celles qui ne disposent pas de ressources informatiques importantes. A noter que les entreprises du secteur des télécommunications ont été fortement promoteurs de l’usage en interne du IaaS, pour devenir une partie de leur offre aux entreprises. A noter que la réalisation d’investissements informatique dans la plupart des entreprises est maintenant le déclic pour entamer une réflexion sur le Cloud et une démarche de type IaaS ou Saas.

Le Cloud Infrastructure reste essentiellement privé.

Parmi les responsables interrogés, les 2/3 indiquent avoir recours au cloud privé pour les infrastructures (Iaas), en interne à l’organisation ou mutualisé avec d’autres entités de l’organisation, ou encore en privé mais entièrement hébergé chez un opérateur et exclusivement dédié aux usages de l’entreprise. Les opérateurs de télécommunications, qui ont pris conscience de l’intérêt économique du Cloud, multiplient donc les offres et mixent les modes d’utilisation entre public et privé. Ce sont principalement les plus petites organisations qui, pour 36% des interrogés, contribuent au développement des Clouds publics, c’est-à-dire sur des infrastructures qui sont partagées avec d’autres sociétés. Le développement des usages hybrides est supporté par 26% des décideurs interrogés.

Un manque cruel d’expérience

Comme tout ce qu’offrent les opérateurs, la grande caractéristique de leurs offres de Cloud infrastructure est le manque de transparence dont se plaignent plus fréquemment les décideurs. Aucune normalisation des offres, la nécessité de rédiger des contrats complexes pour assurer les qualités de service, la bande passante, les sécurités et backup, la confidentialité des données, la restauration, garantir la localisation des données, les temps de réponse à des montées en charge, etc… poussent les directions informatiques à faire enter leurs services juridiques ou les services d’achat dans la négociation d’une offre Cloud. Les périmètres sont encore très flous et pour y répondre, les offreurs répondent par des offres de type solution et des facturations qui ouvrent la porte à tous les excès. « On a vu certaines offres de Cloud à un constructeur automobile proposer une facturation au nombre de voitures vendues précisait Emmanuelle Olivié-Paul. »

Besoin d’audit préalable pour définir les frontières

Il apparait que le partage d’expérience entre les entreprises qui font appel au Cloud est le besoin le plus critique chez les décideurs, surtout pour les infrastructures (IaaS et PaaS), alors que le SaaS continue d’entrer dans la culture des responsables informatique. Parfois, la frontière est floue entre le SaaS et le PaaS, notamment au niveau des outils collaboratifs (type sharepoint, Lotus ou Exchange) et la forte modularisation des différentes briques du Cloud en infrastructure nécessitent que les périmètres soient plus clairement définis. La frontière entre PaaS et Iaas est encore plus floue.

En effet, les offres varient énormément d’un constructeur à l’autre et le décideur en entreprise a beaucoup de mal à les comparer, car chacun utilise son propre vocabulaire pour désigner des choses qui varient d’un constructeur à l’autre, ce qui accroit encore la complexité de recourir à une démarche de Cloud Infrastructure. L’offre varie aussi très vite, rendant encore plus difficile de choix des décideurs qui ont peur de perdre le contrôle de leurs coûts. Il leur est en effet très difficile de faire un calcul de coût prévisionnel précis compte tenu du nombre de paramètres intervenant dans la facturation à la demande.

Une facturation mal adaptée aux soucis de gestion des entreprises

Si les grands éditeurs de logiciels ont maintenant une offre Cloud de services (y compris Oracle et SAP), le jeu se complique dans la mesure où les offreurs de Cloud infrastructure (les opérateurs) se mettent aussi à offrir du SaaS selon des modalités diverses, grâce à des accords avec des éditeurs de logiciels. « Ils sont en général en compétition avec les intégrateurs, à la seule différence qu’ils possèdent le réseau précise Emmanuelle Olivié-Paul. Les approches sont alors loin d’être normalisées en termes de tarifs ».

Alors que l’offre de facturation de Amazon a suscité de nombreuses remarques sur son absence de clarté et de prédictabilité, Microsoft mentionnant deux cas clients, indiquait avoir standardisé son offre Azure autour de plusieurs critères : la configuration de la machine et sa puissance processeur et mémoire, le giga octet stocke par mois (15 centimes), la quantité d’octets transférés sur le réseau (quelque en soit la direction), le type de configuration de Azure choisie, etc… ». Le Cloud pose donc de vrais problèmes de facturation et des métriques qui s’accommodent mal des soucis de gestion, de contrôle et de budgétisation des entreprises. Celles-ci semblent devoir payer très cher, une recherche d’agilité qu’elles ne sont pas sure d’obtenir à terme. Le retour sur investissement est difficile à définir et encore plus difficile à argumenter pour un DSI parce qu’encore très mal connu, chaque offre ayant son propre mode de calcul de ROI.

Une forte croissance prévue, malgré le flou

Malgré les freins et le flou ressentis par les décideurs, le marché du Cloud reste en forte croissance. « Pour l’ensemble des évolutions du marché des logiciels & services de Cloud computing, si on exclu les dépenses de hardware et de réseau au sens des opérateurs, la croissance prévue du SaaS, PaaS et IaaS regroupés serait de 20% par an jusqu’en 2013 en France, et de 22% par an en Europe, indique Emmanuelle Olivié-Paul. En Europe, ce marché représentait une valeur de 13.8 milliards d’Euros en 2011 et de 2.3 milliards d’Euros en France. »

http://www.markess.fr/demandedocument.php?refdoc=774

Enhanced by Zemanta