Archive for the ‘Territoire’ category

CES 2016: AMAZON ET LA MAGIE DES PLATEFORMES INTELLIGENTES

27 janvier 2016

Précurseur et pionnier du Cloud avec sa plateforme AWS, Amazon s’appuie sur une plateforme qui s’enrichi progressivement et devient intelligente en étant capable d’héberger, de traiter et d’analyser de grosses masses de données partout dans le monde. Explications et quelques exemples significatifs en direction des objects connectés.

Pourquoi Netflix se développera-t-il sur 130 nouveaux pays en moins d’un an?

Anthony Passemard est à la tête de l’écosysteme des partenaires ISV (Independant Software Vendors) pour le nouveau segment des IoT et des Mobiles chez Amazon. Il a expliqué aux 200 responsables grands compte de la Mission CES 2016 Xavier Dalloz, comment Amazon, grâce à sa plateforme Cloud qui héberge Netflix, a permi à Read Hashtings son CEO d’annoncer au cours du CES qu’il allait s’installer dans plus de 130 nouveaux pays au cours de l’année 2016… parce que Amazon est présent dans ces pays. Par exemple en France, Amazon permet à Netflix de concurrencer Canal+ directement sur son coeur de métier sans avoir à supporter d’important coûts d’investissements d’infrastructure grâce à AWS.

Anthony Passemard présentait ensuite quelques chiffres sur les activités spécifiques de AWS qui fonctionne comme un service autonome, avec comme client Amazon.com, le service de ventes en ligne, traité exactement comme le sont les 1 million d’autres clients de AWS. Le chiffre d’affaire de AWS, aujourd’hui publié séparément, était de 2.09 milliards de dollars pour 2015, en croissance de 78% d’une année sur l’autre.

La plomberie, c’est l’affaire d’AWS

Quels sont les avantages d’une plateforme Cloud de type AWS? Il indique 5 grandes raisons:

  • La flexibilité: elle permet de commencer avec une installation test, de la modifier, de repartir dans d’autres directions en fonction des évolutions des innovations dans son coeur de métier.
  • Les coûts: Le service Informatique n’est plus un poids, lent, lourd difficile à faire bouger et coûteux. C’est une plateforme peu coûteuse qui permet de tester et d’entrer en production très vite. Par exemple, le Dow Jones a fait 100 millions de $ d’aconomie par an en passant sur AWS. L’US Navy a réduit ses coûts d’infrastructure IT de 60%
  • L’élasticité: elle permet de supporter les fluctuations saisonnières ou accidentelles sans avoir à supporter l’infrastructures maximum toute l’année. Les ressources informatique sont mieux distribuées dans le temps et l’espace, sans avoir a être immobilisées en parmanence.
  • 10 ans d’expérience: AWS a été l’un des grands précurseur du Cloud et au cours de ces 10 années s’est considérablement enrichi en même temps qu’il se deployait dans le monde entier. Cette année, plus de 500 nouvelles « features » ont été ajoutée à la plateforme qui peu convenir à un nombre toujours plus élargi de situations différentes.
  • Global: AWS est présent dans 12 régions dans le monde (le dernier pays ouvert est la Corée) et dispose de 50 points de presence dans le monde.

AWF est en fait un véritable opérateur de services informatiques, de données et de communication qui entre en compétition avec les opérateurs téléphoniques et les opérateurs de télévision, les sociétés de services. Hébergeur de données en provenance du monde entier, elle peut aussi développer des activités de services autour d’applications plus ou moins spécifiques d’analyses de ces données.

Amazon avec AWS pour l’Internet des Objets s’appuie sur ses partenaires

Anthony Passemard passait ensuite la parole à Jean Paul Huon, CTO de la société Z#bre, une société de services Française qui a developpé des solutions à bases d’objets connectés basées sur la plateforme AWS, ce qui permet une mise en oeuvre et une scalabilité quasi instantanées.

Dans le secteur de la santé (developpé dans le département du Loiret avec le Conseil Général), Jean Paul Huon explique qu’il a developpé un boitier qui permet de monitorer les services à la personne. Derrière le boitier qui recueille les données  se trouve une plateforme intelligente dotée de nombreuses fonctionnalités qui permettent de savoir par exemple les heures réelles de visite des personnes qui dispensent les soins ou apportent de l’aide, de recevoir des information d’autres objets connectés dans la maison comme un thermomètre pour s’assurer que la température est optimale dans la maison etc… Les informations traitées sont redistribuées a toute une serie d’organismes intervenants, y compris la famille qui peut recevoir des alertes.

En 6 mois, le département a pu installer et mettre en oeuvre 10000 objets connectés, et la réduction de la facture pour le département qui gère les services a la personne est estimée à 3 millions d’Euros. Reste à réaliser les interfaces avec les systèmes existants…

 

 

Publicités

Un rapport « très universitaire » sur l’egalité des territoires…

24 février 2013

Photo Arnaud Bouissou/Metl

Je viens de télécharger l’énorme rapport de 534 pages demandé par Cécile Duflot pour lui permettre de mettre en place une nouvelle vision devant conduire à « une politique plus juste, rassembleuse, efficace, garante de la cohésion nationale« … basée sur « cette belle idée de l’égalité des territoires ».

Ce rapport a demandé a 37 experts de « faire un état des savoirs et de réfléchir à toutes les implications de l’égalité des territoires, en intégrant la transition écologique et énergétique… »

Ma première démarche, avant même de me lancer dans la lecture de ce volumineux rapport plein de photos, de tableaux, de formules, de dessins et de conclusions, a été de rechercher quels experts avaient été sollicités pour un tel bilan.

Voila effectivement un rapport comme il n’y en a pas eu depuis longtemps…

« En mêlant approche universitaire et regards d’élus, ce qui est déjà en soi, une approche innovante, il a fait vivre la pluralité des regards, lamultiplicité des points de vue. » nous précise la Ministre.  A y regarder de plus prêt, on peut se poser quelques questions sur l’aspect innovant et sur la multiplicité des points de vue…annoncés. On remarquera qu’aucun chef d’entreprise, aucun commerçant, aucun artisant, aucun représentant d’entités économiques nationales ou locales n’apparait parmi les experts mandatés pour ce rapport. Peut-etre n’ont-ils pas les compétences nécessaires pour apparaitre dans un tel rapport qui prend ainsi de fait une tournure définitivement  universitaire et technocratique. En effet, la plupart des élus mentionnés sont, soit des élus professionnels, soit des enseignants. Mais où donc s’exprime la réalité économique?

Il faut donc sérieusement  se poser la question des racines économiques de ce rapport, quand on sait que l’aménagement du territoire, depuis que la France existe, s’est appuyé sur l’économique, comme nous l’avons appris à l’école et ensuite à l’université… Depuis des siècles,on remarque, et le on constate tous les jours, que les infrastructures (fleuves, chemins, routes, trains, avions, telecommunications, écoles) et les flux économiques dont elles facilitent le développement au niveau local, sont à la base du développement territorial… On constate aussi que les gouvernements successifs, s’appuyant sur une technostructure réductrice et centralisatrice, éludent ou détournent systématiquement les problèmes posés par les infrastructures, quand ils devraient avant tout y consacrer leurs efforts de façon quasi exclusive. La demarche adoptée dans ce nouveau rapport semble ne pas échapper à cette habitude.

« Qu’on comprenne bien que ce n’est pas au marché de dessiner l’avenir des territoires et les formes de solidarité qui permettent à une nation de demeurer une et indivisible. »  nous affirme la Ministre…Mettre en place une nouvelle vision du développement des territoire en France en faisant l’impasse sur les réalités économiques et la dynamique économique des infrastructures est effectivement très innovant, mais c’est quelque part réducteur et assez utopique.

Ne pas confondre égalité et égalitarisme
« Parce ce que c’est du combat pour l’égalité que naît la démocratie » poursuit-elle lors de la présentation du rapport… La première impression qui ressort donc de l’organisation de ce rapport est que l’on confond egalité et égalitarisme.Cecile Duflot mentionne à ce propos  le rabot et la toise, deux outils qui sont plus souvent utilisés pour lisser, tailler, réduire et encadrer la diversité que pour créer et susciter de la valeur. La lecture détaillée des nombreuses conclusions de ce rapport pourra-t-elle changer cette impression?

http://www.verslegalite.territoires.gouv.fr/sites/default/files/rapport_EL_001-534webB.pdf

Quels enjeux autour des objets communicants et le futur de l’Internet? Une conférence ASPROM sur L’internet des Objets

15 octobre 2012

Les 24 et 25 Octobre prochain, Roland Dubois, président de l’ASPROM, organise une nouvelle conférence où seront examinés les enjeux et les mécanismes de l’évolution d’un ensemble de technologies, de produits, services et usages regroupés sous le terme d’objets communicants ou encore Internet des Objets. La vision de l’Internet des objets n’est pas nouvelle. En effet, depuis plus de 15 ans, dès qu’Internet a été considéré comme un phénomène irréversible, l’idée de rendre les objets communicants trottait dans beaucoup d’esprits inventifs. On se souviendra du Frigidaire connecté à Internet, réalisé en 1999, capable d’alerter la ménagère lorsqu’il n’y a plus de lait, de beurre ou que des produits sont périmés.  Seulement, les technologies de communications sans fil étaient encore insuffisantes, les puces radio trop encombrantes, trop chères ou trop gourmandes en consommation électrique, les infrastructures étaient insuffisantes, les prétendus standards d’interopérabilité n’étaient pas des standards et les usages rentables étaient encore à imaginer.

Besoin d’une nouvelle loi de Moore autour des infrastructures?

Pourtant, progressivement, avec l’arrivée du WiFi, de la téléphonie cellulaire, des technologies de télécommunications sans fil à basse consommation, avec la miniaturisation, l’intégration plus poussée et la montée en puissance des processeurs et le développement d’un grand nombre de nouvelles technologies, la mise en œuvre de projets autour des objets communicants aux ambitions bien définies, précises et économiquement viable devient plus acceptable. La généralisation, la montée en puissance et la baisse des coûts des télécommunications fixes et mobiles qui s’opèrent grâce à la fibre et les technologies sans fil de nouvelle génération semblent opérer comme une nouvelle loi de Moore dont les effets seraient aussi larges et profonds sur  l’Internet des Objets que les effets qu’elle a eus sur l’industrie du PC.

Les standards et les usages sont clés

ASPROM se propose donc d’examiner en profondeur les enjeux que posent ces nouvelles évolutions technologiques et d’examiner la manière dont les usages vont évoluer et les grandes directions vers lesquelles ils se dirigent. L’un des aspects les plus importants dans cette évolution sera la manière dont les standards vont se développer autour de quelques technologies clé, de façon à permettre de larges déploiements, dans les entreprises et au delà des frontières territoriales. Les différents aspects technologiques et économiques du M2M seront ainsi traités par une quinzaine de spécialistes, de chercheurs et de responsables en entreprises opérant dans ce domaine. Plusieurs secteurs, dont celui de la santé, de l’habitat et de la ville, de l’énergie et de l’environnement seront abordés et examinés de façon plus précise.

La conférence se déroulera à la FIEEC, 17 rue Hamelin, 75016 Paris les 24 et 25 octobre

Programme  et inscription ici :  http://www.asprom.com/seminaire/internet-futur.pdf

LE BATIMENT INTELLIGENT AU COIN DE LA RUE… NOUVELLES PROBLEMATIQUES

6 mars 2012

En moins d’une décennie, Internet et la téléphonie mobile ont profondément et radicalement modifié la vie des gens alors que les impacts du téléphone, de l’électricité ou du moteur à explosion se sont échelonnés sur ¼, ½ voir presque 1 siècle. C’est en créant de nouveaux usages que ces technologies ont suscité la création de nouvelles infrastructures qui elles même entrainent de nouveaux usages… Les télécommunications, liées aux enjeux énergétiques, commencent maintenant à impacter l’habitat avec l’arrivée des bâtiments intelligents.

C’est pourquoi, dans le contexte de cette problématique émergeante, que Roland Dubois, président d’ASPROM, organise deux jours de séminaire/formation sur le thème de l’habitat intelligent les 20 et 21 mars 2012 à Paris.

Le cercle vertueux infrastructure-usages

Le tout numérique continue sa progression dans la vie quotidienne de chacun. La connectivité partout, tout le temps et pour chacun est déjà intégrée dans les mœurs des plus jeunes et chaque jour voit naitre de nouveaux usages. Le processus de diffusion de ces nouveaux usages dans les différentes couches de la population entrainent les opérateurs, les constructeurs, les fournisseurs de services, les municipalités, les gouvernements… à développer les infrastructures de télécommunications qui permettent de répondre à cette demande, toujours croissante. Les réseaux de fibre optique, on le voit depuis 4 ou 5 ans maintenant, sont devenus une affaire nationale, une obligation incontournable, un élément de la compétitivité économique d’un pays parce qu’aujourd’hui, il est courant et normal de regarder des photos, des films, des vidéos, la TV et d’échanger des contenus multimédia sur Internet.

Des milliers de services développés sur Internet sont rapidement devenus indispensables pour la population et les entreprises. De même, l’amélioration et l’extension des réseaux de téléphonie cellulaire à Internet sont devenues un enjeu pour chaque pays, parce que les services qu’ils offrent deviennent immédiatement incontournables. Il est maintenant presque impensable pour un individu normal de ne pas disposer d’un ordinateur, d’une connexion internet et d’un smartphone, tout comme il est impensable pour un pays de ne pas se préoccuper de ses infrastructures de télécommunications fixes et mobiles.

L’émergence de la problématique énergétique autour du bâtiment

La problématique énergétique donne une nouvelle dimension à la prolifération des télécommunications et des services numériques dans notre vie quotidienne. En effet le contrôle des dépenses d’énergie ou la production locale d’énergie, sont devenu une responsabilité individuelle et collective et elles passent immanquablement par Internet et les telecom, à la maison, dans les entreprise ou dans les villes. Le bâtiment, pris dans son ensemble, est le secteur qui effectue plus de 40% des dépenses d’énergies en France.

D’énormes pertes d’énergie ont lieu tous les jours dans des bâtiments parce que personne ne sait avec précision ce qui est consommé, par quoi ou qui,  et pourquoi ? Ainsi, la réduction de moitié de la consommation du pays (un objectif fixé par les politiques lors du Grenelle de l’environnement) ne pourra pas se faire en ignorant les énormes pertes d’énergies dans les bâtiments, usines et immeubles qui couvrent le territoire. D’autre part, la tâche est collective, c’est-à-dire qu’elle implique les pouvoir publics, les entreprises et les individus eux-mêmes. Il est donc indispensable, et aujourd’hui possible grâce à la convergence d’Internet et des télécommunications fixes et mobiles, de rendre les bâtiments intelligents, c’est-à-dire contrôlable et maîtrisables du point de vue de leur consommation énergétique. Le bâtiment devient intelligent à partir du moment où sa consommation énergétique est mesurée et contrôlée grâce a des dispositifs de monitoring (capteur, systèmes d’analyses, contrôle des appareils électriques etc…).  Mais quelles en sont les conditions, les étapes, les coûts, le enjeux ?

Un séminaire sur l’habitat intelligent réalisé par ASPROM

Au sommaire du séminaire le mardi 20 mars, Jean Robert Millet, (responsable de la division Energie au CSTB (Centre Scientifique et Technique du Bâtiment) examinera les enjeux et les défis posés par le grenelle de l’environnement à l’objectif 2020 dans la mesure où les bâtiments neufs devront être à « énergie positive ». Le changement est radical puisque non seulement les bâtiments devront moins consommer, mais ils devront aussi contribuer à produire de l’énérgie. Commen les villes vont-elles intégrer cette problématique ?

Ensuite, François Pelegrin, Architecte DPLG élaborera sur les stratégies de ruptures possibles en matière de construction pour garantir les coûts, les délais et la fiabilité des nouveaux systèmes constructifs et obtenir des bâtiments véritablement performants.

Un exemple sera décrit par Sébastien Prévot, responsable du pôle R&D chez Cardonnel Ingelerie autour de l’impact de la RT2012 sur la conception des bâtiments tertiaires et la manière dont ils peuvent améliorer les conditions de travail et la productivité.

Régis Lecussan, directeur de Raycreatis montrera l’apport de valeur d’un logiciel communicant de collaboration entre l’architecte et le thermicien.

Arthur Vinson (Responsable Développement Systèmes Constructifs chez Lafarge) abordera la nouvelle règlementation thermique, ses enjeux et son impact sur les méthodes de travail lors de la conception des bâtiments. Il présentera des systèmes constructifs performants traditionnels et innovants.

Par Olivier Servant, Directeur des Marchés – Saint Gobain habitat France abordera les détails de l’optimisation de l’isolation (sols, murs, plafonds, ponts thermiques) en application de la RT2012 pour le neuf et l’anticipation des règles 2020. Il présentera la maison Saint Gobain Multi-confort en pointant sur les techniques utilisées qui permettent de construire des maisons de la génération 2020. Il abordera aussi les aspects de la rénovation des bâtiments existants.

Olivier Gaignon, délégué général de Ignes abordera la problématique de la « smart home » ou la domotique communicante au service des citoyens. Il traitera du logement résidentiel ou collectif et fera le point sur les outils la manière de les intégrer simplement pour se rapprocher des smart grids, ou smart cities…

Olivier Flechon, Chef du Laboratoire d’Energétique du Bâtiment, CEA INES (Institut National de l’Energie Solaire) présentera la plateforme Incas qui comporte 10 bancs de test pour l’intégration du photovoltaïque dans les bâtiments ou résidences.

En fin de journée, Hervé Mary, Directeur Général du LAN abordera le thème de  La maison numérique : nouveau foyer d’intelligence. Il examinera l’impact du développement des réseaux d’infrastructure numériques fixes et mobiles sur la maison et l’utilisation des appareils électriques et électroniques qui la peuplent.

Au sommaire du séminaire le mercredi 21 mars, Eric Nicolas, Délégué au Gimelec abordera le bâtiment Intelligent et ses technologies. Comment répondent elles aux impératifs de coût, de confort, de services, de sécurité et de flexibilité. Il déterminera le QI du bâtiment intelligent.

Patrick Heinrich, Directeur Total Building Solutions chez Siemens abordera la notion de GTB (gestion technique du bâtiment) et son impact sur l’efficacité énergétique du réseau.. La GTB fédère les différents métiers techniques du bâtiment et l’objectif est de passer d’une GTB de «contrôle/commande» à une hypervision globale de bâtiment, plus particulièrement avec l’arrivée des bâtiments à énergie positive.

Stéphanie RICHE, Chef du Laboratoire Systèmes de Capteurs Multimodaux au CEA-LETI apportera des éléments de réponse sur l’apport des TIC dans l’efficacité énergétique des bâtiments. Elle présentera une plateforme expérimentale baptisée@home pour prototyper /maqueter les réseaux de capteurs et actionneurs hétérogènes.

Axel Buendia, Gérant de SpirOps présentera les outils d’intelligence décisionnelle qui offre une assistance pour économiser l’énergie, améliorer le confort et renforcer la sécurité. D’un rôle d’assistant, ces outils deviennent  un vecteur actif de l’évolution des comportements énergétiques des citoyens.

Olivier Hersent, PDG d’Actility traitera de l’évolution vers IP des bus de terrain du bâtiment. La présentation évoquera les nouvelles contraintes d’ouverture des systèmes d’information du bâtiment, vers les locataires notamment. Il parlera aussi de l’évolution des standards récents comme ETSI M2M et 6LowPAN et de leur impact sur la prise en mais par les utilisateurs.

Yves Aiilerie, Business Development Manager chez Intel France et Renaud Deschamps, Directeur général de Lexmark France, président du SFIB (syndicat des industries des technologies

de l’information) parleront de l’impact des bâtiments à énergie positive sur les utilisateurs. Ils décriront le GIE « Enjeu Energie Positive » auquel participent leurs sociétés qui ont développé l’application POEM (Personal Office Energy Monitor), en fonction sur plusieurs sites pilotes.

Enfin pour clôturer les 2 jours, Eric L’Helguen, DG d’Embix (société commune Altsom-Bouygues) détaillera les solutions de mutualisation et d’optimisation mises en oeuvre au niveau de la « Smart City » et s’appuiera sur l’exemple pratique du premier réseau intelligent de quartier, Issy Grid

Retour de Barcelone MWC 2012 – Fréquences rares et nouvelles architectures

4 mars 2012

Cette année, il a fait beau. Pas de parapluies ou d’imperméables, mais un beau ciel bleu et un temps assez doux. Est-ce un indicateur du temps qu’il fera au cours de cette année mobile ? Les multiples annonces effectuées durant cette manifestation semblent le présager… Mais  je ne suis pas vraiment très sûr que le beau temps soit au rendez vous sur le long terme…

Les fréquences hertziennes, « l’or noir » de l’économie du mobile

Les fréquences hertziennes sont à la base de tout l’écosystème du mobile qui s’était réuni à Barcelone à la fin de ce mois de février 2012 comme il le fait depuis maintenant 7 ans. Les fréquences hertziennes sont à l’économie de la téléphonie et de l’internet mobile ce que le pétrole est au vaste système économique construit autour de l’automobile.  Outre un mode de fonctionnement assez complexe, parfois assez mystérieux, voir magique (ou encore maléfique) pour le grand public,  la grandes particularité des fréquences est d’être une ressource rare. Pourtant, jusqu’à une époque assez récente, on ne se souciait guère ce cet aspect clé… un peu comme le pétrole qu’on a largement gaspillé pendant des années et dont aujourd’hui on voit les réserves s’épuiser.  Les fréquences hertziennes disponibles pour alimenter une demande croissante de services mobiles et transporter des quantités de données en croissance exponentielle sur des territoires toujours plus vastes sont extrêmement rares.

Améliorer l’information sur les fréquences

Pour cela, il faudrait mettre en place une véritable politique de gestion des fréquences, à la fois au niveau de chaque pays et au niveau international, permettant une meilleure information et une plus grande transparence. La récente tentative manquée du rachat de T-Mobile par AT&T aux Etats Unis, qui s’appuyait sur une argumentation plus ou moins crédible autour d’un soit disant manque de fréquences pour couvrir le territoire en 4G, a bien mis en évidence les besoins d’information et de clarté sur les choix et les équations économiques de certains opérateurs. Ainsi AT&T en mettant la main sur un vaste ensemble de fréquences, renforçait et verrouillait son monopole sur l’ensemble du territoire américain.

Lors du MWC 2012, le Dr Hamadoun Touré, Secrétaire Général  de l’ITU (International Télecommunication Union) rappelait le rôle éducatif de l’institution qu’il dirige. « L’attribution des fréquences est un processus complexe qui répond à des règles techniques précises, plus particulièrement parce qu’il faut prévenir les interférences, expliquait-il.  Mais elle répond aussi à de longs processus de négociations entre les acteurs qui participent à leur utilisation.» Pour lui, il est nécessaire de promouvoir une régulation fortement renouvelée qui ne soit plus basée sur la prédominance de la voix mais prenne en compte les nouvelles caractéristiques du monde des télécom ou les données prédominent sur les réseaux mobiles à haut débit. « Nous devons faciliter une meilleure régulation, ajoute-t-il, qui crée de la valeur et de la concurrence et permettre le passage de l’analogique au numérique, dans tous les pays. »

Partage et mutualisation des réseaux.

Dr Hamadoun Touré Sec Gal ITUUne information plus détaillée sur les processus d’allocation des fréquences et de partage des réseaux (fixes et mobiles) semble donc nécessaire. En effet la dernière conférence WRC-12 de Genève en janvier 2012 mettait en place les fondements d’une nouvelle régulation des fréquences après 4 semaines de négociations intensives ou les enjeux comme la mutualisation, l’usage efficace du spectre, le partage des infrastructures ont été longuement discutés. Certains aspects de partage et de mutualisation des réseaux mobiles renvoient directement à la récente polémique inepte autour de la couverture du réseau du nouvel opérateur Free Mobile en France. Des attitudes rétrogrades comme celle de Jean Bernard Levy patron de SFR qui accuse France Télécom d’avoir louée son réseau à Free montrent un évident besoin d’information et d’explication pour le grand public. Une plus grande transparence sur la manière dont sont allouées les fréquences (un bien public rare), sur la manière dont sont partagés (ou pas) les réseaux fixes et mobiles permettront aux utilisateurs de mieux différencier les offres et améliorera la concurrence sur le marché…

La qualité des réseaux mobiles laisse à désirer

L’arrivée de la téléphonie mobile 4G est maintenant une chose acquise, mais la question reste de savoir quand les déploiements commerciaux auront-ils lieu ? Les réseaux sont-ils prêts ? Y aura-t-il suffisamment de fréquences pour répondre aux besoins toujours croissant de transport des données pour chacun, en tous lieux et à toute heure ? Quels investissements ces réseaux nécessitent-ils?  Quelle mutualisation des réseaux faut-il promouvoir pour accroitre l’efficacité des infrastructures et en baisser les coûts ?  Aujourd’hui, quelques pilotes pré-4G, fortement relayés médiatiquement, ont lieu dans plusieurs pays dont la Suède et les Etats Unis, mais dans la réalité, les réseaux 4G ne sont pas encore là et la qualité des réseaux mobiles laisse à désirer. D’autre part, le problème de la voix sur le 4G n’est pas encore résolu et plusieurs solutions étaient présentées à MWC par Fraunhaufer, Qualcomm ou d’autres fabricants de composants.

Une nouvelle vague d’innovation dans les équipements

Au MWC de Barcelone un foisonnement de nouvelles technologies et d’architectures pour l’équipement de ces réseaux était présenté chez les grands équipementiers, et les moins grands. Ainsi parmi les grands, Alcatel-Lucent cherche à reprendre la main en matière d’innovation pour ne pas se laisser désintégrer par les équipementiers chinois très agressifs ou par le géant Coréen Samsung qui a clairement indiqué ses intentions dans ce secteur. Quelques start’up Françaises comme e-Blink se distinguent par des solutions originales.

L’arrivé du 4G, beaucoup plus puissant,  plus souple et plus flexible que le 2G et 3G, pose de nouveaux problèmes d’architecture de réseau qui nécessitent des approches nouvelles.  Il en résulte un regain d’innovation sur la manière de multiplier les cellules pour augmenter la couverture et répondre à la demande exponentielle d’un nombre croissants d’utilisateurs, tout ceci compte tenu du spectre disponible. D’autres développements innovants apparaissent aussi sur la manière de soulager le réseau cellulaire en basculant automatiquement vers les réseaux WiFi. Cependant l’approche femtocells où le particulier dispose d’un boitier à la maison qui relaie le signal 3G et assure le basculement vers le WiFi, semble avoir été abandonnée par les opérateurs qui voient dans ce boitier une menace sur la sécurité de leurs réseaux.

Paris lance Autolib… Asprom

5 décembre 2011

Le Maire de Paris annonçait aujourd’hui la mise en service d’Autolib, le premier service municipal d’autopartage de voitures électriques à l’image du Velib.

Lors de la conférence Asprom qui s’est déroulée fin novembre, Patrick Le Coeur, ingenieur en Chef des services techniques de la ville de Paris était venu présenter en avant première ce que serait Autolib et expliquer les détails de cette infrastructure.

Voici la vidéo de sa présentation et des questions réponses. Nous y reviendrons.

“Connect America Fund”, 4 milliards de dollars pour la montée en débit aux Etats Unis

2 novembre 2011
France Telecom 92045

Cabine téléphonique en milieu rural !!

La FCC américaine, équivalent de notre ARCEP nationale, vient de prendre une nouvelle décision qui permettra aux territoires ruraux aux Etats Unis de bénéficier un jour d’une meilleure couverture cellulaire et d’obtenir des connexions Internet haut débit à la place des connexions escargot qui sont encore le lot commun pour plus de 18 millions de personnes, soit un peu plus de 5% de la population américaine.  Il ne s’agit pas d’un nouveau crédit de 4 milliards affecté au haut débit rural mais tout simplement de la réutilisation de fonds qui étaient affectés pour installer le téléphone fixe dans les zones rurales… !!

Réforme du système de taxation des lignes téléphoniques aux US

Le projet qui s’appelle « Connect America Fund » s’appuie sur le fait que maintenant, tout le monde admet que le bon vieux téléphone (plain old téléphone souvent appelé POT aux Etats Unis) a vécu. « Nous prenons un système conçu pour l’ére des téléphone à cadran rotatif de Graham Bell et on le modernise pour l’ère de Steve Jobs et l’Internet du futur qu’il a imaginé » précisait Julius Genachowski, chairman de la FCC… Plus important encore, il efface presque d’un coup de baguette magique un ensemble de contraintes régulatoires dites de « régulation inter-opérateurs », c’est-à-dire un ensemble complexe de taxes, de compensations et de subventions inextricables entre opérateurs autour des lignes téléphoniques traditionnelles qui pesaient sur les prix des accès internet parce que répercutées par les opérateurs sur les consommateurs et souvent amplifiées du fait de leur complexité et de leur impact sur l’organisation même des opérateurs.

L’ICC revu pour les réseaux télécom à l’époque d’Internet

Ce système de taxation, appelé ICC, est un vaste système constitué de dérivées et d’ajouts en couches successives, parfois contradictoires, de taxes et de mesures suites à la dérèglementation effectuée en 1984 qui séparait AT&T en 8 Baby Bell indépendantes pour créer un marché concurrentiel aux Etats Unis (Ce qui est arrivé en France en 1996 avec la privatisation de France Télécom qui entre autre a donné naissance à l’ARCEP). Julius Genachowski poursuit : « Notre refonte du système de compensation inter-opérateurs éliminera graduellement les milliards de dollars des subventions cachées payées aujourd’hui par les consommateurs dans leurs factures de téléphone cellulaires et longue distance. Notre équipe estime que le consommateur bénéficiera de la réforme de l’ICC (inter-carrier compensation) pour plus de 2 milliards de dollars annuellement.» Il ne s’agira pas de baisse des prix mais d’allocation différente de ces fonds perçus par les opérateurs. En d’autres termes, cela signifie que 2 milliards de dollars des factures de téléphone fixe et mobile aux Etats Unis vont être calculés et facturés différemment (ce qui dans certains cas conduira tout de même à une baisse de prix) et attribués à des usages plus clairs et plus précis pour le développement des réseaux haut débits ruraux.

Comment font-ils ?

Accompagné d’un fond supplémentaire de 1 milliards de dollars dédié à la mobilité, ce nouveau « Connect America Fund » servira à partir de 2012 à construire 100000 miles soit un peu plus de 160000 km de lignes dans l’Amérique rurale donnant accès haut débit à plus de 18 millions d’américains… En France, il y a à peu près 2 millions de personnes dans cette situation, un rapide calcul nous mène à un ratio de 10% environ et nos zones rurales sont bien moins grandes que les zones rurales américaines… ce qui est un avantage supplémentaire pour nous. Comment avec 4 milliards les américains arrivent-ils à faire pour 18 millions de personnes disséminés sur des millions de km² ce qu’on est incapable de faire pour 2 millions de personnes avec 300 millions d’Euros… (équivalents de 400 millions de dollars) sur un territoire qui fait la taille d’un seul état comme le Texas  et est beaucoup plus peuplé ?

Les prix de France télécom trop élevés ?

Dans son rapport sur la montée en débit daté du mois de juin dernier, l’ARCEP ne s’aventure dans aucun chiffrage financier… Beurk, c’est pas propre de parler d’argent… nous sommes en France. Mais il apparait assez clairement dans un chat sur Internet, organisé cet été par l’ARCEP à propos de la montée en débit, qui concerne ces 2 millions de personnes (ou un peu plus) dans les zones rurales en France, que la montée en débit dépend essentiellement de France Télécom qui possède les sous-répartiteurs. Il apparait qu’il y a environ 20000 sous-répartiteurs concernés par la montée en débit, soit 3 millions de lignes. Chaque répartiteur mis à jours et prêt pour la montée en débit couterait entre 30000 et 50000 euros (que France Télécom facture aux collectivités). Le calcul est maintenant assez simple, ça fait entre 600 millions et 1 milliard d’Euros pour faire passer au haut débit les français ruraux. Il doit y avoir un bugg quelque part… !!  Notre opérateur historique nous cacherait-il quelque chose ?  L’ARCEP ne s’étonne pas? Où bien nos amis américains disposeraient-ils de nouvelles technologies beaucoup moins chères dont ils ne nous parlent pas… ? France Télécom pratiquerait-il des prix outrageusement élevés lorsqu’il s’agit d’équiper les collectivités publiques, c’est-à-dire en fait qu’il se ferait en quelque sorte subventionner par nos impôts de façon détournée ?