Archive for the ‘Recherche & Développement’ category

CES 2016: CISCO parle des startups, des réseaux IoT

12 janvier 2016

Bruno Touret de Cisco était invité de la Mission CES 2016 comportant plus de 200 responsables grands comptes Français accompagnés par Xavier Dalloz et son équipe. 

Bruno Touret indiquait que Cisco a decidé d’investir presque un demi milliards de dollars dans des startip européennes, dont 100 millions en Angleterre, 100 millions en Allemagne et 200 millions en France.

Cisco s’intéresse principalement aux startup dans trois secteurs directement reliés à l’Internet des Objets. Son objectif est de créer des liens étroits et intégrés avec  le ceur du réseau Cisco dans les prochanes décenies. Conjointement, Cisco s’intéresse à des écosystèmes innovants qui lui pemettent de renforcer l’interopérabilité des équipements et des réseaux.

Le premier secteur est celui du Big Data. A ce titre, Cisco a investi dans la société Intersec, une société basée en Angleterre, crée par Yann Chevallier et 2 autres Français, qui réalise des logiciels d’analyse de flux de données en temps réel dans des campagnes de marketing. Le partenariat avec Cisco permet d’intégrer des objets connectés pour recueillir des données sur les usages plus rapidement et permettre, plus particulièrement dans le secteur de la téléphonie, d’améliorer la réactivité des opérateurs en fonction d’une connaissance  plus précise du comportements de leurs clients.

Le second secteur est celui de l’IoT. Cisco a passé un partenariat et investi dans la société Actility, crée par Olivier Hersent, un véteran des télécommunications et entrepreneur récidiviste. Cette société qui a developpé des solutions de communication machine to machine et s’est positionné comme pourvoyeur de solutions technologie de télécommunications sans fil pour l’Internet des Objets (ThingPark Wireless) vient d’incorporer le protocole de réseau IoT LoRa WAN dans les équipements Cisco. Ce réseau viendra enrichir les possibilités offertes par  les réseaux Cisco en direction de l’Internet des Objets, et pourra cohabiter avec d’autres protocles pour améliorer l’interoperabilité entre différents ecosystèmes connectés.

Le troisième secteur est celui de la cybersecurité. Cisco a racheté la société Américaine Open DNS crée par David Ulevitch qui a developpé des solutions de sécurité intelligentes autour du DNS, pour combattre le spyware, le spam et le phishing notamment. Les tchnologies de OpenDNS seront intégré dans les produits Cisco pour l’analyse et la protection des contenus.

Au CES, explique Bruno Touret, Cisco est  aussi partie prenante et très actif dans le stand de l’OIC. L’open Interconnect Consortium a été formé en octobre 2014 par un groupe de 4 ou 5 compagnies dont Cisco, Intel, General Electric et Samsung, rapidement rejointes par trente puis cinquante et aujourd’hui par plus de 200 sociétés impliquées dans le seteur de l’Internet des objets. L’objectif de ce consortium, dont le principal concurrent est Allseen, une Alliance crée par Qualcomm (auquel participent aussi un grand nombre des membres de OIC), est de développer un protocole qui permette de standardser et de rendre interopérables les réseaux  et les objets connectés. L’un des principaux enjeux de ces 2 organismes est de permettre a tous les objets connectés de se parler entre eux et de faciliter l’utilisation sécurisée des données générées par les objets connectés.

Enfin, Bruno Touret indiquait que Cisco en France a resserré ses liens avec le monde de l’éducation et passé un accord avec l’école Polytechnique pour y créer une Chaire sur L’Internet des Objets et créer plusieurs Innovations Labs.

 

 

 

 

Retour de Barcelone MWC 2012 – Fréquences rares et nouvelles architectures

4 mars 2012

Cette année, il a fait beau. Pas de parapluies ou d’imperméables, mais un beau ciel bleu et un temps assez doux. Est-ce un indicateur du temps qu’il fera au cours de cette année mobile ? Les multiples annonces effectuées durant cette manifestation semblent le présager… Mais  je ne suis pas vraiment très sûr que le beau temps soit au rendez vous sur le long terme…

Les fréquences hertziennes, « l’or noir » de l’économie du mobile

Les fréquences hertziennes sont à la base de tout l’écosystème du mobile qui s’était réuni à Barcelone à la fin de ce mois de février 2012 comme il le fait depuis maintenant 7 ans. Les fréquences hertziennes sont à l’économie de la téléphonie et de l’internet mobile ce que le pétrole est au vaste système économique construit autour de l’automobile.  Outre un mode de fonctionnement assez complexe, parfois assez mystérieux, voir magique (ou encore maléfique) pour le grand public,  la grandes particularité des fréquences est d’être une ressource rare. Pourtant, jusqu’à une époque assez récente, on ne se souciait guère ce cet aspect clé… un peu comme le pétrole qu’on a largement gaspillé pendant des années et dont aujourd’hui on voit les réserves s’épuiser.  Les fréquences hertziennes disponibles pour alimenter une demande croissante de services mobiles et transporter des quantités de données en croissance exponentielle sur des territoires toujours plus vastes sont extrêmement rares.

Améliorer l’information sur les fréquences

Pour cela, il faudrait mettre en place une véritable politique de gestion des fréquences, à la fois au niveau de chaque pays et au niveau international, permettant une meilleure information et une plus grande transparence. La récente tentative manquée du rachat de T-Mobile par AT&T aux Etats Unis, qui s’appuyait sur une argumentation plus ou moins crédible autour d’un soit disant manque de fréquences pour couvrir le territoire en 4G, a bien mis en évidence les besoins d’information et de clarté sur les choix et les équations économiques de certains opérateurs. Ainsi AT&T en mettant la main sur un vaste ensemble de fréquences, renforçait et verrouillait son monopole sur l’ensemble du territoire américain.

Lors du MWC 2012, le Dr Hamadoun Touré, Secrétaire Général  de l’ITU (International Télecommunication Union) rappelait le rôle éducatif de l’institution qu’il dirige. « L’attribution des fréquences est un processus complexe qui répond à des règles techniques précises, plus particulièrement parce qu’il faut prévenir les interférences, expliquait-il.  Mais elle répond aussi à de longs processus de négociations entre les acteurs qui participent à leur utilisation.» Pour lui, il est nécessaire de promouvoir une régulation fortement renouvelée qui ne soit plus basée sur la prédominance de la voix mais prenne en compte les nouvelles caractéristiques du monde des télécom ou les données prédominent sur les réseaux mobiles à haut débit. « Nous devons faciliter une meilleure régulation, ajoute-t-il, qui crée de la valeur et de la concurrence et permettre le passage de l’analogique au numérique, dans tous les pays. »

Partage et mutualisation des réseaux.

Dr Hamadoun Touré Sec Gal ITUUne information plus détaillée sur les processus d’allocation des fréquences et de partage des réseaux (fixes et mobiles) semble donc nécessaire. En effet la dernière conférence WRC-12 de Genève en janvier 2012 mettait en place les fondements d’une nouvelle régulation des fréquences après 4 semaines de négociations intensives ou les enjeux comme la mutualisation, l’usage efficace du spectre, le partage des infrastructures ont été longuement discutés. Certains aspects de partage et de mutualisation des réseaux mobiles renvoient directement à la récente polémique inepte autour de la couverture du réseau du nouvel opérateur Free Mobile en France. Des attitudes rétrogrades comme celle de Jean Bernard Levy patron de SFR qui accuse France Télécom d’avoir louée son réseau à Free montrent un évident besoin d’information et d’explication pour le grand public. Une plus grande transparence sur la manière dont sont allouées les fréquences (un bien public rare), sur la manière dont sont partagés (ou pas) les réseaux fixes et mobiles permettront aux utilisateurs de mieux différencier les offres et améliorera la concurrence sur le marché…

La qualité des réseaux mobiles laisse à désirer

L’arrivée de la téléphonie mobile 4G est maintenant une chose acquise, mais la question reste de savoir quand les déploiements commerciaux auront-ils lieu ? Les réseaux sont-ils prêts ? Y aura-t-il suffisamment de fréquences pour répondre aux besoins toujours croissant de transport des données pour chacun, en tous lieux et à toute heure ? Quels investissements ces réseaux nécessitent-ils?  Quelle mutualisation des réseaux faut-il promouvoir pour accroitre l’efficacité des infrastructures et en baisser les coûts ?  Aujourd’hui, quelques pilotes pré-4G, fortement relayés médiatiquement, ont lieu dans plusieurs pays dont la Suède et les Etats Unis, mais dans la réalité, les réseaux 4G ne sont pas encore là et la qualité des réseaux mobiles laisse à désirer. D’autre part, le problème de la voix sur le 4G n’est pas encore résolu et plusieurs solutions étaient présentées à MWC par Fraunhaufer, Qualcomm ou d’autres fabricants de composants.

Une nouvelle vague d’innovation dans les équipements

Au MWC de Barcelone un foisonnement de nouvelles technologies et d’architectures pour l’équipement de ces réseaux était présenté chez les grands équipementiers, et les moins grands. Ainsi parmi les grands, Alcatel-Lucent cherche à reprendre la main en matière d’innovation pour ne pas se laisser désintégrer par les équipementiers chinois très agressifs ou par le géant Coréen Samsung qui a clairement indiqué ses intentions dans ce secteur. Quelques start’up Françaises comme e-Blink se distinguent par des solutions originales.

L’arrivé du 4G, beaucoup plus puissant,  plus souple et plus flexible que le 2G et 3G, pose de nouveaux problèmes d’architecture de réseau qui nécessitent des approches nouvelles.  Il en résulte un regain d’innovation sur la manière de multiplier les cellules pour augmenter la couverture et répondre à la demande exponentielle d’un nombre croissants d’utilisateurs, tout ceci compte tenu du spectre disponible. D’autres développements innovants apparaissent aussi sur la manière de soulager le réseau cellulaire en basculant automatiquement vers les réseaux WiFi. Cependant l’approche femtocells où le particulier dispose d’un boitier à la maison qui relaie le signal 3G et assure le basculement vers le WiFi, semble avoir été abandonnée par les opérateurs qui voient dans ce boitier une menace sur la sécurité de leurs réseaux.

Actility : Quand l’énergie découvre le logiciel au sein du smart grid

16 avril 2011

Lors de la conférence « Convergence Energie Télécom » de l’ASPROM qui s’est déroulée à Paris au début du mois d’avril, l’une des présentations les plus remarquables était faite par Olivier Hersent, CEO de la société star’tup Actility. Pour ceux qui connaissent le monde des télécoms, Olivier Hersent n’est pas un inconnu. Il fut en effet le créateur de Netcentrex en 1996, une start’up Française issue de France Télécom. Olivier Hersent avec Netcentrex a été un pionnier dans la voix sur IP, et il revendait sa société à la société américaine Comverse en 2006 alors que le secteur des télécoms était en pleine consolidation.

Depuis, Olivier Hersent s’est penché sur le secteur de l’énergie et du smart grid, apportant ses compétences en télécommunication et en software et a crée la société Actility. Invité à la conférence de l’ASPROM, il explique en détail la problématique du smart grid, de l’arrivée des voitures électriques et de la difficile entré du logiciel dans ces systèmes pour gérer la mutualisation de l’infrastructure électrique afin d’atteindre une utilisation optimale dans un marché ouvert à la concurrence. On retrouve les incontournables problèmes de standard, de la manière de les faire arriver (pour ne pas dire les imposer) et de les faire évoluer… Les industriels Français sont-ils prêts à ça ?

Actility veut faire au smart grid ce que l’iPhone fait aux télécoms

Que fait Actility ? Pas facile à expliquer parce que la société intervient au niveau d’une couche système dans le smart grid qui n’existe pas vraiment encore (une sorte de système d’exploitation) et qu’il s’agit de mettre en place… Rappelant les lois qui s’imposent dans les télécommunications et qui conduisent à la mutualisation des infrastructures, Olivier Hersent précise que cette problématique de la mutualisation concerne la plupart des infrastructures, c’est-à-dire non seulement les smart grids mais aussi les réseaux de gaz, d’eau, les immeubles, etc…

Après avoir abordé certains aspects mal connus du grand public sur la gestion de la production d’électricité en fonction des variations de la demande, il précise que la voiture électrique dont tout le monde parle, est un vrai casse tête du point de vue de la gestion de l’énergie dans la mesure où elle rend plus complexe les prévisions de consommation, mais aussi et surtout demande des capacités locales de puissance très importantes «  En effet, lorsque 3 véhicules électriques arriveront dans le garage d’un immeuble et se connecteront chacun à une prise électrique pour se recharger, ils feront sauter les plombs de l’immeuble parce qu’ils dépassent les limites normales de flux de consommation. »

La voiture électrique posera d’énorme problèmes de contrôle du réseau électrique

 Imaginez que dans un même immeuble, tout le monde fasse fonctionner en même temps sa machine à laver, le sêche linge, le fer à repasser, le four électrique, le four à micro onde, la télé...  « Déjà, dans les tours d’immeubles à la défense, des systèmes de contrôle evitent que le chauffage et l’air conditionnée démarre en même temps que lorsque les salariés arrivent et mettent leur ordinateur en route..

Rendez-vous compte quel serait l’effet de l’arrivée d’une cinquantaine de Prius electriques se connectant dans le garage de l’immeuble en même temps le matin… »« Les voitures électriques posent donc un double problème pour les réseaux électriques, ajoute-t-il celui de leur mobilité et celui de la puissance…. En effet, on peut penser qu’un médecin équipé d’une voiture electrique aura une priorité pour faire recharger sa voiture plus vite, ce qui demande plus de puissance électrique… D’autres personnes pourront avoir ce type de droit, il faut pouvoir les identifier et gérer ces priorités au niveau global, grâce à un système de roaming, parce que ces gens se déplacent avec leur voiture et ont besoin de la recharger tous les jours… »  Il précise enfin que la voiture electrique deviendra un réel problème d’ici l’année prochaine puisque légalement, les garages d’immeuble devront comporter une prise pour voiture électrique.

Nécessité de faire émerger des standards

Le but de Actility est de travailler au niveau de la couche logiciel système des systèmes machine to machine. « Il y a des millions d’objets connectables, mais il n’y a pas encore de standards de niveau système clairement définis et appliqués explique-t-il. L’ETSI a mis en place un comité M2M et travaille actuellement sur la définition d’une couche système standard pour interagir avec les objets…. Le but d’Actility est de travailler sur les premières implémentations logicielles de ces standards afin de communiquer avec ses objets et agir sur leur comportement principalement sur la manière dont ils consomment l’énergie électrique… Il faut normaliser la couche où toutes les applications machine to machine viendront se connecter, plus particulièrement dans le secteur du smart grid où par exemple, il est important de savoir qui a le droit d’accéder au compteur et qui peut agir dessus, comment sont gérées les communications, etc.. ? »

Internet des objets et consommation electrique

Aujourd’hui, les Etats Unis poussent fortement à la convergence des protocoles sur IP et l’architecture REST (Post,Get, Put,Delete…) pour gérer l’interactivité et les communications sur le smart grid. D’autre part, le système de télécommunications sans fil Zigbee est désormais quasi standard depuis que la version 2.0 a reçu une stack IP.. D’autres profils sont en train d’émerger autour des box qui apparaissent maintenant incontournables pour le smart Grid, mais qui devront être capable de regrouper et de mutualiser les accès à différentes infrastructures. Olivier Hersent parle de la mise en place d’un « Things Park Store », comme existent aujourd’hui les AppStore… Un programme ambitieux… La vision d’Olivier Hersent sera-t-elle comprise et suivie par les industriels et les investisseurs Français?

Ecoutez la présentation de Olivier Hersent, CEO de Actility

Le Photovoltaïque à la recherche de sa loi de Moore…

29 novembre 2010

L’association ASPROM a organisé la semaine dernière une session de formation et d’échanges de 2 jours sur les développements du photovoltaïque et des technologies de batteries en France et dans le monde. Elle a demandé à Daniel Lincot, Chimiste, Maitre de Recherche au CNRS et grand spécialiste Français des technologies solaires de présenter l’ensemble du paysage photovoltaïque.

Il a réalisé un travail de présentation très remarquable dans la mesure où il s’adresse à des gens « normaux », c’est-à-dire non spécialistes de ces technologies. Il a fait un effort de clarté dans son exposé en adoptant une démarche très pédagogique et en éclaircissant beaucoup de termes utilisés.

Son exposé est structuré en 8 points :

  • La ressource : le soleil. Chaque mètre carré du territoire Français reçoit en énergie solaire l’équivalent de 1 baril de pétrole par an. Qu’est ce que cela implique sachant que 1 tonne équivalent pétrole correspond à 11.6 Mw/h ?
  • Les rendements : Aujourd’hui, les meilleurs rendements de la transformation de l’énergie solaire en énergie électriques sont de 20% environ. Le rendement maximum auquel on peut compter aujourd’hui est calculé autour de 50%. L’ambition des chercheurs est donc de se rapprocher de ces 50%.
  • La production : L’Europe toute entière produit environ 11 Giga Watts par an à partir du solaire et ce chiffre augmente fortement, de 40% par an environ. L’Allemagne avec près de 7 GW de production annuelle est largement leader alors que la France produit actuellement environ 500 Mega Watts par an. Le Grenelle de l’environnement a fixé un objectif de production de 5.4GW par an en France pour 2020, ce qui donne une bonne idée de l’effort à réaliser. La Chine et Taïwan sont les leaders mondiaux.
  • Les coûts : L’objectif à atteindre en termes de coût de production est de 1€ par watt. Partie de 20€ par watt il y a quelques années, la courbe baisse fortement au fur et à mesure que les nouvelles technologies se développent et sont aujourd’hui autour de 2€ par Watt produit. La loi de Moore du photovoltaïque prend ses bases ici, sachant que le coût du Watt installé est de 6 à 7 € aujourd’hui.
  • La compétitivité : La parité réseau est le gap qui existe entre le coût du Watt produit en photovoltaïque et le cout du Watt produit par un réseau électrique classique. Celui-ci a tendance à se réduire grâce à l’amélioration des rendements. On estime que l’émergence de la parité réseau sera effective sur les régions du sud de la France vers 2015 et sur l’ensemble du territoire Français d’ici 2020.
  • Les acteurs : Aujourd’hui dans la liste des 13 premières sociétés mondiales apparaissent des sociétés qui étaient quasiment inconnues ou très loin dans le classement de 2005, ce qui dénote la vigueur du secteur. First Solar, la première société fournisseur de cellules photovoltaïque est américaine, elle n’existait pas il y a 10 ans. Les constructeurs européens sont plutôt bien placés grâce aux sociétés Allemandes. Les grandes sociétés Françaises qui s’étaient lancées dans le solaire il y a 10 ans ont arrêté ou fortement diminué leur effort.
  • Les filières : Il existe de nombreuses technologies pour transformer l’énergie solaire en énergie électrique. Daniel Lincot présente toutes ces technologies, appelées filières et les compare. Il y a 4 grandes filières : le silicium cristallin et multi-cristallin;  le silicium en couches minces ;  les filières non silicium de type tellarure de galium, et enfin la filière dite CIS et CIGS.
  • Les enjeux : Daniel Lincot aborde enfin les grands enjeux technologiques et industriels liés au photovoltaïque en les expliquant en termes simple et compréhensibles par tout le monde.

Il termine par une session de questions réponses avec la salle.

Enhanced by Zemanta

MPO, naissance d’une filière photovoltaïque française…

28 novembre 2010

L’association ASPROM a organisé la semaine dernière deux jours de formation et d’échanges autour du photovoltaïque. Après une première journée orientée sur l’état de l’art et d’avancement des différentes filières technologiques de fabrication des panneaux solaires et des batteries, la deuxième journée était dédiée à la présentation de réalisations industrielles.

A ce titre était invité Loïc de Poix, PDG de la société MPO, une PME basée à Averton dans la Mayenne. Cette société est au centre d’un ambitieux projet appelé PV20 , auquel est associé le CEA et un certain nombre d’industriels Français sous la bienveillante manne d’Oséo. L’objectif est de construire, vaut mieux tard que jamais, une filière française du photovoltaïque. Loïc de Poix décrit avec beaucoup de précision les enjeux et les caractéristiques de la mutation entamée par sa société MPO qui était jusqu’à l’année dernière l’un des grands fabricants de CD-DVD et Blue Ray dans le monde. Il décrit aussi l’organisation du consortium de recherche PV 20 et la filière industrielle qui s’établit progressivement autour de ce consortium.

Présentation de Loïc de Poix

Questions et réponses

La présentation de Loïc de Poix était suivie d’une session de questions et réponses de la salle, composée de professionnels et de chercheurs dans le photovoltaïque. Bien des questions se posent encore sur la manière dont le gouvernement Français conduit sa politique industrielle par le biais d’Oséo.

Le photovoltaïque et les batteries : l’état de l’art et les problèmes d’industrialisation dans une optique d’économie d’énergie

28 octobre 2010

L’ASPROM, Association pour la Promotion des Technologies Innovantes est un organisme qui organise des conférences de formation d’une journée ou deux sur les nouvelles technologies en cours de développement. L’Asprom fait appel aux meilleurs spécialistes des technologies étudiées. Les formations proposées abordent en profondeurs les développements technologiques, industriels, économiques et de marché et l’impact social des technologies innovantes.

Le 24 et 25 novembre prochain, Roland Dubois, Président de l’ASPROM accueillera pendant 2 jours un ensemble de spécialistes sur le thème « L’énergie solaire photovoltaïque et son stockage ». « Nous avons organisé ce programme intensif de deux jours en trois étapes bien distinctes pour couvrir l’ensemble de la problématique de la production de l’énergie solaire et de son stockage explique Roland Dubois. »

  • La première demi-journée sera consacrée aux technologies photovoltaïques. Qu’est ce que le photo-voltaïque, quel est l’état de l’art dans la fabrication des panneaux solaires, comment abaisser les couts de fabrication et comment réduire les dépenses d’énergie dans la fabrication des panneaux solaires à base de silicium. Quelle est l’équation coût-efficacité de l’industrialisation des panneaux solaires ? Ce thème sera couvert par des spécialistes du photovoltaïque : Daniel Lincot, Directeur de l’IRDEP, Sébastien Delbos de EDF-IRDEP, Emmanuelle Rouvière directeur du LCRE,  Simon Perraud du CEA et Stéphane Guillerez du CEA.
  • La deuxième demi-journée abordera les problèmes des batteries et du stockage de l’électricité. La technologie des batteries a fait de gros progrès en particulier poussées par les innovations dans l’automobile (on estime a 6 millions le nombre de véhicules en France équipés de cellules Li-ion en 2020). Comment construire des batteries capables de stocker plus d’énergie pour un encombrement moindre et une plus grande facilité de manipulation (micro-batteries). Cette demi-journée sera animée par Mathieu Morcrette Directeur du Laboratoire de Réactivité et Chimie des Solides d’Amiens, Florence Fusalba du CEA de Grenoble, Raphaël SALOT, Chef du Laboratoire des Composants pour le Micro Stockage de l’énergie au CEA. Elle se terminera par une présentation de Thomas Sennelier de OSEO qui présentera l’action de l’Agence pour soutenir  les entreprises innovantes dans le photovoltaïque.
  • La deuxième journée de formation sera entièrement consacrée à la présentation d’applications industrielles et de produits innovants développées et mises en oeuvre par des sociétés. Seront examinés et présentés le projet MPO Energy PV20 soutenu par Oseo, Anne Labouret  parlera des developpement de la société Solems, puis Jacques Duval de Legrand, Julien Werly du CRT CRESITT, Ambroise SCHELLMANNS du Laboratoire de Micro électronique de Puissance (LMP) à Tours et Jean-Noël de CHARENTENAY, Dg de EXOSUN présenteront les offres innovantes mises sur le marché par leurs organisations. La journée se terminera sur les conclusions de Jean-Claude BAL de l’ADEME (Agence de l’environnement et de la Maitrise de l’Energie).

Les 2 jours se dérouleront à Paris au 56 avenue de Wagram, dans les locaux de l’UIMM

Pour s’inscrire http://www.asprom.com/index.php?page=agenda

Très haut débit sans fil pour tous, le « SuperWifi » annoncé aux Etats Unis..

28 septembre 2010

La FCC américaine vient de libérer un ensemble de fréquences hertziennes inutilisées dans les interstices des chaines de télévision analogiques afin de les ouvrir à une utilisation sans licence préalable par des « terminaux mobiles » capables de télécharger des informations à très haut débit (80 Mbps et plus). Immédiatement appelé SuperWiFi parce que ces fréquences basses peuvent transporter des données à très haute vitesse sur des grandes distances (plusieurs kilomètres) à partir d’émetteurs de faible puissance, ce réseau couterait beaucoup moins cher à installer que les réseaux cellulaires 3G ou LTE, ne parlons pas des réseaux de fibre qui se cantonnent dans les zones denses aujourd’hui. Il serait plus puissant, capable de mieux pénétrer dans les bâtiments et serait ouvert à tous : particuliers, municipalités, communautés diverses, opérateurs… sans nécessité de posséder ou d’acheter une licence d’exploitation.

Inspiré du mode de fonctionnement du WiFi (qui rappelons le fut interdit à ses début pendant quelques temps en France), il serait basé sur des technologies nouvelles plus performantes, plus efficaces et moins chères dont les développements semblent déjà avancés aux Etats Unis… Le Chairman de la FCC, Julius Genachowski indiquait « Cette décision ouvre une nouvelle ère pour l’innovation technologique américaine. Nous savons d’expérience que ce spectre non licencié peut susciter des innovations énormément utiles. Par exemple, il y a des années, personne n’imaginait la manière d’utiliser du spectre de basse qualité inutilisé qualifié de « bande pourrie » lorsque la FCC a décidé de le libérer sans licence.  Le résultat fut une vague de technologies nouvelles… le Wifi qui est aujourd’hui une industrie de plusieurs milliards de dollars et une partie essentielle de l’écosystème de la mobilité ». Cette nouvelle approche permettrait de réaliser le très haut débit pour tous sans la fibre.

Un mouvement entamé il y a dejà 3 ans

Mais chaque fois que de nouvelles fréquences hertziennes sont libérées et destinées à être proposées au public pour créer de nouvelles infrastructures qui ne tombent pas à priori dans l’escarcelle des opérateurs en place, les boucliers se lèvent, surtout aux Etats Unis ou les lobbies des opérateurs sont extrêmement puissants et efficaces pour protéger leurs monopôles. Le WiFi en son temps a pris tout le monde par surprise et les opérateurs ont eu beaucoup de mal à le museler. Aujourd’hui, ils ne veulent pas se laisser prendre de nouveau avec ce super Wifi. Chacun sait en effet que ces monopoles historiques s’appuient sur les infrastructures pour verrouiller les consommateurs « ad vitam » chez le même opérateur, jusqu’à ce qu’une nouvelle technologie arrive, qu’ils refusent dans un premier temps et essaient de récupérer et de contrôler, ou même de tuer dans un deuxième temps (cf le WiMax).

Ce mouvement se fait sous le regard plus ou moins bienveillant des régulateurs (FCC, ARCEP, Ofcom, ORECE,  etc…) dont le rôle est de faciliter le développement des infrastructures et des usages sur des marchés réputés ouverts. C’est une des raisons pour lesquelles les opérateurs sont particulièrement averses à toute innovation technologique… (sauf au niveau du discours)… et c’est aussi la raison pourquoi ils voient d’un très mauvais œil l’annonce de ce « superWiFi » que tout le monde découvre aujourd’hui mais qui se prépare aux Etats Unis depuis déjà plusieurs années sous le terme de « White Spaces » ou encore « Fréquences Blanches ». Il est donc tout naturel que la FCC, dirigée de façon intelligente, s’oriente vers une mise à disposition non licenciée de ces fréquences, étant quasiment certaine que l’innovation viendra avec.

Que sont ces « bandes blanches » ?

A la fin de 2006 et au début 2007, plusieurs ingénieurs de sociétés de la Silicon Valley comme Google et autres grands de l’informatique ou d’internet se réunissaient pour discuter de ces fameuses fréquences blanches et finalement créent une alliance appelée « White Space Coalition » regroupant plusieurs poids lourds comme Dell, HP, Microsoft, Google, Intel, Philips, Earthlink et Samsung. L’objectif clairement affiché est de développer une technologie sans fil qui utilise des petites portions de bandes de fréquences de la Télévision Analogique dans les zones 54 – 698 MHz, pour transporter des données sans fil à très haut débit (80 mbps et au dessus). Les bandes de fréquences visées sont appelées « bandes blanches » ou « fréquences blanches » parce que ce sont des bandes inutilisées qui ont été mises en place pour éviter les interférences entre les canaux de télévision analogique (aujourd’hui en cours de disparition).

L’un des principaux problèmes de l’utilisation de ces fréquences blanches est posé par les interférences qui peuvent se produire avec les canaux de télévision existants. En octobre 2008, Google tenait une conférence sur ce thème dans ses locaux à Mountain View montrant l’intérêt de nouvelles technologies comme les radios cognitives qui permettent une gestion dynamique et flexible à basse puissance des fréquences vacantes.

L’une des difficultés de l’utilisation de ces fréquences blanche est qu’elles forment un véritable « gruyère » parce que ce sont des petites bandes de fréquence qui se trouvent entre des canaux de TV affectés à des endroits différents selon les régions. La technologie doit donc déterminer avec précision les canaux pré-existants et éviter les interférences locales. Le 5 novembre suivant, la FCC approuvait à l’unanimité l’idée de l’utilisation non licenciée des fréquences blanches, accompagnée d’un ensemble de recommandations sur la manière dont les appareils (TV Band Devices) doivent fonctionner pour éviter les interférences locales.

L’argument des interférences…

A peine la décision de la FCC était-elle prise en novembre 2008 que la NAB (National Association of Broadcasters) réagissait associée à l’Association for Maximum Service Télévision (MSTV) demandant à la FCC de revenir sur sa décision. Plainte était déposé devant la court d’Appel du District de Columbia mentionnant que l’utilisation des Fréquences Blanches conduirait à dégrader les services de Télévision. D’autres arguments étaient cités concernant les interférences possibles avec les fréquences audio utilisées par les micros dans les systèmes de sonorisation publique. La chanteuse américaine Dolly Parton, réquisitionnée par la NAB pour se faire l’avocat de la protection des fréquences blanches, perdait la bataille.

Microsoft, impliqué depuis le début dans ces bandes blanches, a mis en œuvre un prototype de réseau « superWifi » sur son vaste campus de Redmond et a testé les interférences possibles avec les dispositifs radio en place. Les ingénieurs de Microsoft ont développé des outils permettant d’identifier la présence de canaux audio utilisés au fur et à mesure que le terminal se déplace et d’éviter les interférences. L’installation mise en place avec seulement 2 stations a permis de couvrir la totalité du campus de Microsoft qui fait 250 hectares pour près de 200 bâtiments. Pour l’instant ce réseau est un prototype de laboratoire et Microsoft n’a pas indiqué son intention d’en faire un produit.

Les fréquences, un bien public…

Les fréquences hertziennes sont à la base des infrastructures de communication sans fil qui se développent depuis une bonne quinzaine d’années, qui sont aujourd’hui utilisées quotidiennement par des milliards d’utilisateurs pour téléphoner ou pour accéder à Internet sans fil, surtout depuis que les smartphones et les tablettes numériques se sont développés.

Historiquement, l’affectation des fréquences les plus attractives (dites en or) s’est faite au profit des technologies existantes à l’époque qui sont aujourd’hui quelque peu obsolètes et plutôt inefficaces en termes d’utilisation du spectre. Ces technologies, la télévision, la radio et la téléphonie cellulaire sont mises en oeuvre par des sociétés historiques qui détiennent des monopoles (de fait ou constitués) sur lesquelles elles sont assises confortablement grâce à la possession de ces fréquences. On a bien vu les difficultés qu’a soulevées l’attribution de la 4ème fréquence de téléphonie sans fil en France.

Que va faire l’ARCEP ?

La libération de nouvelles fréquences suscite toujours des ambitions chez des nouveaux entrants potentiels et des craintes des sociétés en place qui voient leur « legacy » devenir un véritable boulet s’ils n’investissent pas rapidement dans ces nouvelles technologies et ne répondent pas proprement aux nouveaux besoins qu’elles satisfont.  Ils cherchent donc à contrôler étroitement les affectations de nouvelles fréquences et l’innovation technologique. C’est probablement ce qui va se passer avec ce nouveau SuperWiFi.

C’est justement dans cette mesure que ce nouveau superWiFi est particulièrement intéressant parce qu’il élargira de façon importante la portée et la puissance du WiFi et ne sera pas, à priori, la propriété exclusive des opérateurs en place. Alors que les réseaux LTE représentent un investissement important pour les opérateurs, mais ne couvriront pas suffisamment de territoire avant une bonne quinzaine d’année à cause du lancinant problème des zones moins denses ou rurales dans lesquelles ils ne veulent pas investir, alors que les réseaux 3G sont surchargés et menacent de crouler sous la demande au fur et à mesure que les smartphones et les tablettes arrivent en masse sur le marché, le superWifi semble une opportunité incontournable.

L’ARCEP connait parfaitement ces bandes de « fréquences blanches ». L’Europe aussi, mais rien ne bouge encore de ce côté-là. Resteront-elles frileusement sur des positions prises? Par exemple en matière de WiMax,  interdire le roaming sous prétexte de prétendues interférences (et éviter une levée de bouclier de la part des opérateurs).  Ou bien prendront-elles rapidement des positions innovantes qui lèveront interdits et incertitudes sur ce superWiFi et permettrons à des développeurs et des industriels Français de se lancer dans cette nouvelle aventure… ?