La réduction de nos émissions de gaz à effet de serre nécessite une baisse de notre consommation. On nous affirme que les technologies de l’information et de la communication (TIC) ont la potentialité de réduire notre consommation énergétique grâce à la dématérialisation et la substitution aux transports (notamment via le télétravail, la visioconférence…). Certes, mais les TIC sont elles-mêmes responsables d’une consommation d’énergie due à la fabrication des matériels et à l’utilisation directe d’électricité. Du coup la question se pose : les TIC sont-elles une fausse bonne solution à la réduction de gaz à effet de serre ? En tout cas il importe de veiller à ce que les « solutions » TIC n’entraînent pas une dépense d’énergie plus importante que le gain attendu.

Je n’ai pas trouvé beaucoup de littérature sur l’importance des réductions potentielles de CO2 imputables au développement des TIC.

Si l’on en croit un rapport publié en 2012 par le « Global e-Sustainability Initiative » (GeSI), les TIC pourraient en 2020 permettre la réduction de nos émissions de 7,8 GtCO2(e) (Gigatonnes d’équivalent CO2) sur un total supposé à 51,9 GtCO2(e), tout en émettant elles-mêmes 1,4 GtCO2(e),). Les économies semblent pouvoir se faire dans 4 secteurs majeurs : l’industrie (1,1 GtCO2[e]), les transports (2,2 GtCO2[e]), les bâtiments (2,4 GtCO2[e]) et l’énergie (2,1 GtCO2[e]). Par exemple, en matière de bâtiments, la mise en œuvre d'une gestion optimisée du chauffage et de l'énergie, l'utilisation de la communication domotique (chauffage, ventilation, lumière…) pourraient faire économiser 1,7 GtCO2(e). Par contre ce que l’on appelle la dématérialisation, la substitution des supports réels par des supports virtuels (télétravail, visioconférence, e-commerce, etc.) a nettement moins d’impact et ne permet d’économiser que 0,5 GtCO2(e).

D'une manière générale, l’évaluation des émissions de gaz à effet de serre imputables aux TIC semble complexe. Si j’en crois un article du Figaro d’août 2013, les TIC « consomment en moyenne 1 500 térawattheures d'électricité par an, soit 10 % de la production mondiale. Pour donner un ordre de grandeur, ce chiffre gargantuesque représente toute l'électricité mondiale utilisée pour l'éclairage en 1985 ou encore, à notre époque, la production conjointe du Japon et de l'Allemagne. Des smartphones aux télévisions connectés, en passant par les micro-ordinateurs, tous ces appareils sont de véritables ogres silencieux. » Le Monde du même mois nous donne un autre exemple « un iPhone consomme davantage d'électricité qu'un réfrigérateur – 361 kilowatts-heures par an en moyenne, contre 322 kW h – en tenant compte des besoins en énergie de sa batterie, du WiFi, ou encore des téléchargements et échanges de données. »

Pour évaluer la consommation d’énergie générée par l’utilisation des TIC on doit prendre en compte aussi bien la consommation des réseaux et des « datacenters », que celle des terminaux (ordinateurs, tablettes, téléphones) dans leurs usages et leur fabrication.

  1. Pour ce qui est des terminaux, leur nombre croit de façon exponentielle et la demande potentielle des pays émergents laisse supposer une poursuite du processus.
  2. La demande croissante des usagers, qu’elle soit réelle ou suggérée (par d’insidieuses campagnes de communication) par les opérateurs, entraîne la mise en œuvre de débits de plus en plus rapides.
  3. Les données et la puissance de calcul des entreprises sont souvent stockées dans des serveurs, regroupés dans des « datacenters ». On estime que dans le monde, ils consomment 30 GW d’électricité, soit environ la production de 30 centrales nucléaires. Avec le développement du « Cloud computing », on s’attend à ce que cette consommation augmente fortement.
  4. Enfin la fabrication de tous ces équipements consomme de l’énergie. Une étude de 2004 montrait que l’énergie mise en œuvre pour la fabrication d’un PC, pour une durée de vie de 3 ans, était deux fois plus grande que l’énergie consommée pour son fonctionnement. Le renouvellement rapide des équipements accentue ce processus. On mesure bien le côté « cycle infernal » que constitue l’escalade permanente entre la puissance des microprocesseurs (INTEL) et la demande en capacité de calcul des systèmes d’exploitation des logiciels (Microsoft).


Mais venons-en aux « datacenters » dont la presse nous dit qu’ils fleurissent en Seine-Saint-Denis. Médiapart nous explique que ces hangars de serveurs indispensables au fonctionnement d'Internet ont un besoin en énergie colossal. « D’ici 2030, ils devraient représenter un quart de la puissance électrique supplémentaire installée dans le Grand Paris, soit environ 1 000 mégawatts (MW). Autant qu'un petit réacteur nucléaire. Autant que toutes les nouvelles activités tertiaires et industrielles de l’Île-de-France (1 million d’emplois attendus). C’est sidérant. » Actuellement, si j’en crois la Gazette des Communes, le « Triangle d’or » du stockage des données c’est : Saint-Denis, Pantin et Aubervilliers, qui accueillent une vingtaine d’établissements sur les 130 recensés en France. À noter la présence d’un tel équipement propriété d’Equinix sur Paris Nord 2 presque sur le territoire communal de Tremblay-en-France (par ailleurs réfrigéré avec du glycol !).

À La Courneuve, rue Rateau, les riverains se plaignent du ronflement émis par l’imposant « datacenter » qu’Interxion a construit en plein tissu pavillonnaire. En plus du bruit généré, ce que redoute le plus les habitants du quartier, c’est le risque d’explosion. En effet, attenantes à ces établissements, se trouvent d’importantes réserves de fioul indispensables à l’alimentation de groupes électrogènes qui doivent démarrer en cas de coupure de courant. Internet ne doit jamais s’arrêter. Manifestement sourde à l’inquiétude des riverains, la mairie de La Courneuve vient d’accorder le permis de construire d’un second équipement d’Interxion, pour ce « campus digital center » de 44 000 m2, qui doit s'installer sur l’ancien site d’Eurocopter.

Pourquoi les multinationales qui gèrent ce type d’équipement choisissent-elles la Seine-Saint-Denis quand elles doivent en construire un « datacenter » en Île-de-France ? Il y a certainement plusieurs raisons dans ce choix. Tout d’abord la présence d’un foncier pas cher : il y a encore quelques années, ce département était l'une des plus grosses friches industrielles d'Europe ! L'endroit est proche de Paris et des transports en commun, pas de zones à risque dans le périmètre, etc. Autre élément intéressant c’est qu’il n’y a pas de risques avec le niveau de la Seine. Dernier atout, héritage de son passé industriel, c’est l’excellente desserte en électricité, qui permet aux concepteurs de disposer de deux arrivées d'énergie. Le problème de ce type d’implantation est la faiblesse du taux d’emploi. Chez Interxion, on réalise 50 millions d'euros de chiffre d'affaires avec 70 salariés !

Je ne peux pas terminer cet article sans poser la question du silence pour le moins douteux, du secret même qui entoure ces « datacenters » et leurs implantations. Je voudrais juste sur ce point laisser la parole à Andrew Blum qui s’exprime ainsi dans Médiapart : « Les entreprises de télécommunication et de téléphonie ont toujours été des boîtes noires, considérant qu’elles n’avaient pas à communiquer sur ce qui se passait en leur sein... La culture était de ne pas parler de ce que l’on faisait... De plus, au départ, les « datacenters » étaient beaucoup utilisés par les banques, qui ont leur propre tradition de pratiques secrètes. Mais cela change depuis deux ou trois ans. La tendance va vers plus de transparence. Cette culture du secret est-elle un danger pour la démocratie ? Les consommateurs devraient davantage demander à connaître les infrastructures d’Internet. Le droit du public à savoir ce qu’est le « cloud computing » et comment il fonctionne, à savoir qui possède ses données par exemple, est supérieur au secret industriel. »

Je suis assez d’accord avec cette idée !