Archive for the ‘Recherche & Développement’ category

CES 2016: CISCO parle des startups, des réseaux IoT

12 janvier 2016

Bruno Touret de Cisco était invité de la Mission CES 2016 comportant plus de 200 responsables grands comptes Français accompagnés par Xavier Dalloz et son équipe. 

Bruno Touret indiquait que Cisco a decidé d’investir presque un demi milliards de dollars dans des startip européennes, dont 100 millions en Angleterre, 100 millions en Allemagne et 200 millions en France.

Cisco s’intéresse principalement aux startup dans trois secteurs directement reliés à l’Internet des Objets. Son objectif est de créer des liens étroits et intégrés avec  le ceur du réseau Cisco dans les prochanes décenies. Conjointement, Cisco s’intéresse à des écosystèmes innovants qui lui pemettent de renforcer l’interopérabilité des équipements et des réseaux.

Le premier secteur est celui du Big Data. A ce titre, Cisco a investi dans la société Intersec, une société basée en Angleterre, crée par Yann Chevallier et 2 autres Français, qui réalise des logiciels d’analyse de flux de données en temps réel dans des campagnes de marketing. Le partenariat avec Cisco permet d’intégrer des objets connectés pour recueillir des données sur les usages plus rapidement et permettre, plus particulièrement dans le secteur de la téléphonie, d’améliorer la réactivité des opérateurs en fonction d’une connaissance  plus précise du comportements de leurs clients.

Le second secteur est celui de l’IoT. Cisco a passé un partenariat et investi dans la société Actility, crée par Olivier Hersent, un véteran des télécommunications et entrepreneur récidiviste. Cette société qui a developpé des solutions de communication machine to machine et s’est positionné comme pourvoyeur de solutions technologie de télécommunications sans fil pour l’Internet des Objets (ThingPark Wireless) vient d’incorporer le protocole de réseau IoT LoRa WAN dans les équipements Cisco. Ce réseau viendra enrichir les possibilités offertes par  les réseaux Cisco en direction de l’Internet des Objets, et pourra cohabiter avec d’autres protocles pour améliorer l’interoperabilité entre différents ecosystèmes connectés.

Le troisième secteur est celui de la cybersecurité. Cisco a racheté la société Américaine Open DNS crée par David Ulevitch qui a developpé des solutions de sécurité intelligentes autour du DNS, pour combattre le spyware, le spam et le phishing notamment. Les tchnologies de OpenDNS seront intégré dans les produits Cisco pour l’analyse et la protection des contenus.

Au CES, explique Bruno Touret, Cisco est  aussi partie prenante et très actif dans le stand de l’OIC. L’open Interconnect Consortium a été formé en octobre 2014 par un groupe de 4 ou 5 compagnies dont Cisco, Intel, General Electric et Samsung, rapidement rejointes par trente puis cinquante et aujourd’hui par plus de 200 sociétés impliquées dans le seteur de l’Internet des objets. L’objectif de ce consortium, dont le principal concurrent est Allseen, une Alliance crée par Qualcomm (auquel participent aussi un grand nombre des membres de OIC), est de développer un protocole qui permette de standardser et de rendre interopérables les réseaux  et les objets connectés. L’un des principaux enjeux de ces 2 organismes est de permettre a tous les objets connectés de se parler entre eux et de faciliter l’utilisation sécurisée des données générées par les objets connectés.

Enfin, Bruno Touret indiquait que Cisco en France a resserré ses liens avec le monde de l’éducation et passé un accord avec l’école Polytechnique pour y créer une Chaire sur L’Internet des Objets et créer plusieurs Innovations Labs.

 

 

 

 

Retour de Barcelone MWC 2012 – Fréquences rares et nouvelles architectures

4 mars 2012

Cette année, il a fait beau. Pas de parapluies ou d’imperméables, mais un beau ciel bleu et un temps assez doux. Est-ce un indicateur du temps qu’il fera au cours de cette année mobile ? Les multiples annonces effectuées durant cette manifestation semblent le présager… Mais  je ne suis pas vraiment très sûr que le beau temps soit au rendez vous sur le long terme…

Les fréquences hertziennes, « l’or noir » de l’économie du mobile

Les fréquences hertziennes sont à la base de tout l’écosystème du mobile qui s’était réuni à Barcelone à la fin de ce mois de février 2012 comme il le fait depuis maintenant 7 ans. Les fréquences hertziennes sont à l’économie de la téléphonie et de l’internet mobile ce que le pétrole est au vaste système économique construit autour de l’automobile.  Outre un mode de fonctionnement assez complexe, parfois assez mystérieux, voir magique (ou encore maléfique) pour le grand public,  la grandes particularité des fréquences est d’être une ressource rare. Pourtant, jusqu’à une époque assez récente, on ne se souciait guère ce cet aspect clé… un peu comme le pétrole qu’on a largement gaspillé pendant des années et dont aujourd’hui on voit les réserves s’épuiser.  Les fréquences hertziennes disponibles pour alimenter une demande croissante de services mobiles et transporter des quantités de données en croissance exponentielle sur des territoires toujours plus vastes sont extrêmement rares.

Améliorer l’information sur les fréquences

Pour cela, il faudrait mettre en place une véritable politique de gestion des fréquences, à la fois au niveau de chaque pays et au niveau international, permettant une meilleure information et une plus grande transparence. La récente tentative manquée du rachat de T-Mobile par AT&T aux Etats Unis, qui s’appuyait sur une argumentation plus ou moins crédible autour d’un soit disant manque de fréquences pour couvrir le territoire en 4G, a bien mis en évidence les besoins d’information et de clarté sur les choix et les équations économiques de certains opérateurs. Ainsi AT&T en mettant la main sur un vaste ensemble de fréquences, renforçait et verrouillait son monopole sur l’ensemble du territoire américain.

Lors du MWC 2012, le Dr Hamadoun Touré, Secrétaire Général  de l’ITU (International Télecommunication Union) rappelait le rôle éducatif de l’institution qu’il dirige. « L’attribution des fréquences est un processus complexe qui répond à des règles techniques précises, plus particulièrement parce qu’il faut prévenir les interférences, expliquait-il.  Mais elle répond aussi à de longs processus de négociations entre les acteurs qui participent à leur utilisation.» Pour lui, il est nécessaire de promouvoir une régulation fortement renouvelée qui ne soit plus basée sur la prédominance de la voix mais prenne en compte les nouvelles caractéristiques du monde des télécom ou les données prédominent sur les réseaux mobiles à haut débit. « Nous devons faciliter une meilleure régulation, ajoute-t-il, qui crée de la valeur et de la concurrence et permettre le passage de l’analogique au numérique, dans tous les pays. »

Partage et mutualisation des réseaux.

Dr Hamadoun Touré Sec Gal ITUUne information plus détaillée sur les processus d’allocation des fréquences et de partage des réseaux (fixes et mobiles) semble donc nécessaire. En effet la dernière conférence WRC-12 de Genève en janvier 2012 mettait en place les fondements d’une nouvelle régulation des fréquences après 4 semaines de négociations intensives ou les enjeux comme la mutualisation, l’usage efficace du spectre, le partage des infrastructures ont été longuement discutés. Certains aspects de partage et de mutualisation des réseaux mobiles renvoient directement à la récente polémique inepte autour de la couverture du réseau du nouvel opérateur Free Mobile en France. Des attitudes rétrogrades comme celle de Jean Bernard Levy patron de SFR qui accuse France Télécom d’avoir louée son réseau à Free montrent un évident besoin d’information et d’explication pour le grand public. Une plus grande transparence sur la manière dont sont allouées les fréquences (un bien public rare), sur la manière dont sont partagés (ou pas) les réseaux fixes et mobiles permettront aux utilisateurs de mieux différencier les offres et améliorera la concurrence sur le marché…

La qualité des réseaux mobiles laisse à désirer

L’arrivée de la téléphonie mobile 4G est maintenant une chose acquise, mais la question reste de savoir quand les déploiements commerciaux auront-ils lieu ? Les réseaux sont-ils prêts ? Y aura-t-il suffisamment de fréquences pour répondre aux besoins toujours croissant de transport des données pour chacun, en tous lieux et à toute heure ? Quels investissements ces réseaux nécessitent-ils?  Quelle mutualisation des réseaux faut-il promouvoir pour accroitre l’efficacité des infrastructures et en baisser les coûts ?  Aujourd’hui, quelques pilotes pré-4G, fortement relayés médiatiquement, ont lieu dans plusieurs pays dont la Suède et les Etats Unis, mais dans la réalité, les réseaux 4G ne sont pas encore là et la qualité des réseaux mobiles laisse à désirer. D’autre part, le problème de la voix sur le 4G n’est pas encore résolu et plusieurs solutions étaient présentées à MWC par Fraunhaufer, Qualcomm ou d’autres fabricants de composants.

Une nouvelle vague d’innovation dans les équipements

Au MWC de Barcelone un foisonnement de nouvelles technologies et d’architectures pour l’équipement de ces réseaux était présenté chez les grands équipementiers, et les moins grands. Ainsi parmi les grands, Alcatel-Lucent cherche à reprendre la main en matière d’innovation pour ne pas se laisser désintégrer par les équipementiers chinois très agressifs ou par le géant Coréen Samsung qui a clairement indiqué ses intentions dans ce secteur. Quelques start’up Françaises comme e-Blink se distinguent par des solutions originales.

L’arrivé du 4G, beaucoup plus puissant,  plus souple et plus flexible que le 2G et 3G, pose de nouveaux problèmes d’architecture de réseau qui nécessitent des approches nouvelles.  Il en résulte un regain d’innovation sur la manière de multiplier les cellules pour augmenter la couverture et répondre à la demande exponentielle d’un nombre croissants d’utilisateurs, tout ceci compte tenu du spectre disponible. D’autres développements innovants apparaissent aussi sur la manière de soulager le réseau cellulaire en basculant automatiquement vers les réseaux WiFi. Cependant l’approche femtocells où le particulier dispose d’un boitier à la maison qui relaie le signal 3G et assure le basculement vers le WiFi, semble avoir été abandonnée par les opérateurs qui voient dans ce boitier une menace sur la sécurité de leurs réseaux.

Actility : Quand l’énergie découvre le logiciel au sein du smart grid

16 avril 2011

Lors de la conférence « Convergence Energie Télécom » de l’ASPROM qui s’est déroulée à Paris au début du mois d’avril, l’une des présentations les plus remarquables était faite par Olivier Hersent, CEO de la société star’tup Actility. Pour ceux qui connaissent le monde des télécoms, Olivier Hersent n’est pas un inconnu. Il fut en effet le créateur de Netcentrex en 1996, une start’up Française issue de France Télécom. Olivier Hersent avec Netcentrex a été un pionnier dans la voix sur IP, et il revendait sa société à la société américaine Comverse en 2006 alors que le secteur des télécoms était en pleine consolidation.

Depuis, Olivier Hersent s’est penché sur le secteur de l’énergie et du smart grid, apportant ses compétences en télécommunication et en software et a crée la société Actility. Invité à la conférence de l’ASPROM, il explique en détail la problématique du smart grid, de l’arrivée des voitures électriques et de la difficile entré du logiciel dans ces systèmes pour gérer la mutualisation de l’infrastructure électrique afin d’atteindre une utilisation optimale dans un marché ouvert à la concurrence. On retrouve les incontournables problèmes de standard, de la manière de les faire arriver (pour ne pas dire les imposer) et de les faire évoluer… Les industriels Français sont-ils prêts à ça ?

Actility veut faire au smart grid ce que l’iPhone fait aux télécoms

Que fait Actility ? Pas facile à expliquer parce que la société intervient au niveau d’une couche système dans le smart grid qui n’existe pas vraiment encore (une sorte de système d’exploitation) et qu’il s’agit de mettre en place… Rappelant les lois qui s’imposent dans les télécommunications et qui conduisent à la mutualisation des infrastructures, Olivier Hersent précise que cette problématique de la mutualisation concerne la plupart des infrastructures, c’est-à-dire non seulement les smart grids mais aussi les réseaux de gaz, d’eau, les immeubles, etc…

Après avoir abordé certains aspects mal connus du grand public sur la gestion de la production d’électricité en fonction des variations de la demande, il précise que la voiture électrique dont tout le monde parle, est un vrai casse tête du point de vue de la gestion de l’énergie dans la mesure où elle rend plus complexe les prévisions de consommation, mais aussi et surtout demande des capacités locales de puissance très importantes «  En effet, lorsque 3 véhicules électriques arriveront dans le garage d’un immeuble et se connecteront chacun à une prise électrique pour se recharger, ils feront sauter les plombs de l’immeuble parce qu’ils dépassent les limites normales de flux de consommation. »

La voiture électrique posera d’énorme problèmes de contrôle du réseau électrique

 Imaginez que dans un même immeuble, tout le monde fasse fonctionner en même temps sa machine à laver, le sêche linge, le fer à repasser, le four électrique, le four à micro onde, la télé...  « Déjà, dans les tours d’immeubles à la défense, des systèmes de contrôle evitent que le chauffage et l’air conditionnée démarre en même temps que lorsque les salariés arrivent et mettent leur ordinateur en route..

Rendez-vous compte quel serait l’effet de l’arrivée d’une cinquantaine de Prius electriques se connectant dans le garage de l’immeuble en même temps le matin… »« Les voitures électriques posent donc un double problème pour les réseaux électriques, ajoute-t-il celui de leur mobilité et celui de la puissance…. En effet, on peut penser qu’un médecin équipé d’une voiture electrique aura une priorité pour faire recharger sa voiture plus vite, ce qui demande plus de puissance électrique… D’autres personnes pourront avoir ce type de droit, il faut pouvoir les identifier et gérer ces priorités au niveau global, grâce à un système de roaming, parce que ces gens se déplacent avec leur voiture et ont besoin de la recharger tous les jours… »  Il précise enfin que la voiture electrique deviendra un réel problème d’ici l’année prochaine puisque légalement, les garages d’immeuble devront comporter une prise pour voiture électrique.

Nécessité de faire émerger des standards

Le but de Actility est de travailler au niveau de la couche logiciel système des systèmes machine to machine. « Il y a des millions d’objets connectables, mais il n’y a pas encore de standards de niveau système clairement définis et appliqués explique-t-il. L’ETSI a mis en place un comité M2M et travaille actuellement sur la définition d’une couche système standard pour interagir avec les objets…. Le but d’Actility est de travailler sur les premières implémentations logicielles de ces standards afin de communiquer avec ses objets et agir sur leur comportement principalement sur la manière dont ils consomment l’énergie électrique… Il faut normaliser la couche où toutes les applications machine to machine viendront se connecter, plus particulièrement dans le secteur du smart grid où par exemple, il est important de savoir qui a le droit d’accéder au compteur et qui peut agir dessus, comment sont gérées les communications, etc.. ? »

Internet des objets et consommation electrique

Aujourd’hui, les Etats Unis poussent fortement à la convergence des protocoles sur IP et l’architecture REST (Post,Get, Put,Delete…) pour gérer l’interactivité et les communications sur le smart grid. D’autre part, le système de télécommunications sans fil Zigbee est désormais quasi standard depuis que la version 2.0 a reçu une stack IP.. D’autres profils sont en train d’émerger autour des box qui apparaissent maintenant incontournables pour le smart Grid, mais qui devront être capable de regrouper et de mutualiser les accès à différentes infrastructures. Olivier Hersent parle de la mise en place d’un « Things Park Store », comme existent aujourd’hui les AppStore… Un programme ambitieux… La vision d’Olivier Hersent sera-t-elle comprise et suivie par les industriels et les investisseurs Français?

Ecoutez la présentation de Olivier Hersent, CEO de Actility

Le Photovoltaïque à la recherche de sa loi de Moore…

29 novembre 2010

L’association ASPROM a organisé la semaine dernière une session de formation et d’échanges de 2 jours sur les développements du photovoltaïque et des technologies de batteries en France et dans le monde. Elle a demandé à Daniel Lincot, Chimiste, Maitre de Recherche au CNRS et grand spécialiste Français des technologies solaires de présenter l’ensemble du paysage photovoltaïque.

Il a réalisé un travail de présentation très remarquable dans la mesure où il s’adresse à des gens « normaux », c’est-à-dire non spécialistes de ces technologies. Il a fait un effort de clarté dans son exposé en adoptant une démarche très pédagogique et en éclaircissant beaucoup de termes utilisés.

Son exposé est structuré en 8 points :

  • La ressource : le soleil. Chaque mètre carré du territoire Français reçoit en énergie solaire l’équivalent de 1 baril de pétrole par an. Qu’est ce que cela implique sachant que 1 tonne équivalent pétrole correspond à 11.6 Mw/h ?
  • Les rendements : Aujourd’hui, les meilleurs rendements de la transformation de l’énergie solaire en énergie électriques sont de 20% environ. Le rendement maximum auquel on peut compter aujourd’hui est calculé autour de 50%. L’ambition des chercheurs est donc de se rapprocher de ces 50%.
  • La production : L’Europe toute entière produit environ 11 Giga Watts par an à partir du solaire et ce chiffre augmente fortement, de 40% par an environ. L’Allemagne avec près de 7 GW de production annuelle est largement leader alors que la France produit actuellement environ 500 Mega Watts par an. Le Grenelle de l’environnement a fixé un objectif de production de 5.4GW par an en France pour 2020, ce qui donne une bonne idée de l’effort à réaliser. La Chine et Taïwan sont les leaders mondiaux.
  • Les coûts : L’objectif à atteindre en termes de coût de production est de 1€ par watt. Partie de 20€ par watt il y a quelques années, la courbe baisse fortement au fur et à mesure que les nouvelles technologies se développent et sont aujourd’hui autour de 2€ par Watt produit. La loi de Moore du photovoltaïque prend ses bases ici, sachant que le coût du Watt installé est de 6 à 7 € aujourd’hui.
  • La compétitivité : La parité réseau est le gap qui existe entre le coût du Watt produit en photovoltaïque et le cout du Watt produit par un réseau électrique classique. Celui-ci a tendance à se réduire grâce à l’amélioration des rendements. On estime que l’émergence de la parité réseau sera effective sur les régions du sud de la France vers 2015 et sur l’ensemble du territoire Français d’ici 2020.
  • Les acteurs : Aujourd’hui dans la liste des 13 premières sociétés mondiales apparaissent des sociétés qui étaient quasiment inconnues ou très loin dans le classement de 2005, ce qui dénote la vigueur du secteur. First Solar, la première société fournisseur de cellules photovoltaïque est américaine, elle n’existait pas il y a 10 ans. Les constructeurs européens sont plutôt bien placés grâce aux sociétés Allemandes. Les grandes sociétés Françaises qui s’étaient lancées dans le solaire il y a 10 ans ont arrêté ou fortement diminué leur effort.
  • Les filières : Il existe de nombreuses technologies pour transformer l’énergie solaire en énergie électrique. Daniel Lincot présente toutes ces technologies, appelées filières et les compare. Il y a 4 grandes filières : le silicium cristallin et multi-cristallin;  le silicium en couches minces ;  les filières non silicium de type tellarure de galium, et enfin la filière dite CIS et CIGS.
  • Les enjeux : Daniel Lincot aborde enfin les grands enjeux technologiques et industriels liés au photovoltaïque en les expliquant en termes simple et compréhensibles par tout le monde.

Il termine par une session de questions réponses avec la salle.

Enhanced by Zemanta

MPO, naissance d’une filière photovoltaïque française…

28 novembre 2010

L’association ASPROM a organisé la semaine dernière deux jours de formation et d’échanges autour du photovoltaïque. Après une première journée orientée sur l’état de l’art et d’avancement des différentes filières technologiques de fabrication des panneaux solaires et des batteries, la deuxième journée était dédiée à la présentation de réalisations industrielles.

A ce titre était invité Loïc de Poix, PDG de la société MPO, une PME basée à Averton dans la Mayenne. Cette société est au centre d’un ambitieux projet appelé PV20 , auquel est associé le CEA et un certain nombre d’industriels Français sous la bienveillante manne d’Oséo. L’objectif est de construire, vaut mieux tard que jamais, une filière française du photovoltaïque. Loïc de Poix décrit avec beaucoup de précision les enjeux et les caractéristiques de la mutation entamée par sa société MPO qui était jusqu’à l’année dernière l’un des grands fabricants de CD-DVD et Blue Ray dans le monde. Il décrit aussi l’organisation du consortium de recherche PV 20 et la filière industrielle qui s’établit progressivement autour de ce consortium.

Présentation de Loïc de Poix

Questions et réponses

La présentation de Loïc de Poix était suivie d’une session de questions et réponses de la salle, composée de professionnels et de chercheurs dans le photovoltaïque. Bien des questions se posent encore sur la manière dont le gouvernement Français conduit sa politique industrielle par le biais d’Oséo.