Présentation
EnglishRÉSUMÉ
Les centres de données stockent les mégadonnées numériques sur disques durs et bandes magnétiques qui sont recopiés tous les 5-7 ans ; ils représentent des "gouffres" pour les ressources en terrain, électricité et matériaux rares. Après avoir analysé cet état de l'art, l'article présente une solution de rupture pour l'archivage de mégadonnées à l’échelle moléculaire, sur l’ADN. Il en montre les avantages et limites, puis décrit les technologies sous-jacentes, et étend la discussion au cas des polymères non-ADN. Il conclut en traçant des perspectives techno-scientifiques et économiques à cette approche.
Lire cet article issu d'une ressource documentaire complète, actualisée et validée par des comités scientifiques.
Lire l’articleAuteur(s)
-
François KÉPÈS : Animateur du groupe de travail « ADN : lire, écrire, stocker l'information » de l’Académie des technologies - Académie des technologies, Académie d’Agriculture de France (Paris, France)
INTRODUCTION
Linformation a été le moteur de la croissance socio-économique de la civilisation depuis ses débuts. Actuellement, son stockage, archivage et traitement par les centres dédiés n’offrent plus de marges suffisantes d’optimisation pour faire face au déluge des données, et à son problématique impact environnemental. Un récent rapport de l’Académie des technologies explore une alternative prometteuse au modèle conventionnel : l’archivage des données à l’échelle moléculaire, un chantier de 20 ans.
En effet, le stockage et archivage des mégadonnées numériques (« big data ») par l’approche actuelle des centres de données ne seront pas soutenables au-delà de 2040. La sphère globale des données (SGD) créées par l’humanité était estimée en 2018 à 33 zettaoctets (33 mille milliards de milliards d’octets), du même ordre que le nombre estimé d’étoiles dans l’univers observable. La SGD augmente d’un facteur deux tous les deux ou trois ans, soit environ cent à mille tous les vingt ans. Cet article ne traite pas des efforts qui pourraient être consentis pour ralentir la croissance de la SGD, même si cet aspect fait partie de la problématique au sens large.
Une part majoritaire de ces données est ensuite stockée dans plusieurs millions de centres de données (en incluant ceux des entreprises et le « cloud »), qui fonctionnent au sein de réseaux de transmission. Ensemble, ceux-ci consomment déjà environ 2-4 % de l’électricité dans les pays avancés. Leur coût de construction et d’exploitation est globalement de l’ordre de mille milliards d’euros. Ces centres couvrent un millionième de la surface émergée du globe (soit environ 150 km2) ; au rythme actuel, ils en couvriraient un dix-millième à un millième vers 2040 (soit environ 150 000 km2, 1/3 de la France). Les technologies de stockage utilisées par ces centres sont rapidement frappées d’obsolescence aux niveaux du format, du dispositif de lecture/écriture mais également du support lequel nécessite des copies tous les cinq à sept ans pour garantir l’intégrité des données. Elles posent aussi des problèmes croissants d’approvisionnement en ressources rares comme le silicium de grade électronique.
Sachant qu’en 2040, il y aurait cent à mille fois plus de données à conserver, ces chiffres démontrent que le modèle actuel de conservation sera d’ici là devenu insuffisant, tout en étant insupportable au plan environnemental.
L’alternative prometteuse discutée dans cet article est offerte par les supports moléculaires porteurs d’information, tel que l’ADN, utilisé ici comme agent chimique en dehors du vivant, ou d’autres hétéropolymères non-ADN très prometteurs. Potentiellement, l’ADN permet des densités informationnelles dix millions de fois supérieures aux mémoires traditionnelles : toute la SGD actuelle tiendrait dans une fourgonnette. L’ADN est stable à température ordinaire durant plusieurs millénaires, sans consommation énergétique. Il peut être aisément multiplié ou détruit à volonté. Certains calculs peuvent être physiquement implémentés avec des fragments d’ADN. Enfin, sa technologie ne deviendra pas obsolète car il constitue notre matériel héréditaire.
Domaine : 1) Technologies de l’Information ; 2) Procédés Chimie Bio Agro
Degré de diffusion de la technologie : Émergence
Technologies impliquées : Biologie moléculaire ; Chimie des hétéropolymères ; Informatique du codage/décodage
Domaines d’application : Archivage des données numériques ; centres de données ; cloud ; big data ; intelligence artificielle
Principaux acteurs français :
Pôles de compétitivité :
Centres de compétence : Institut Charles Sadron, CNRS et Univ. Strasbourg ; I3S, CNRS et Univ. Nice ; IRISA, INRIA, CNRS et Univ. Rennes
Industriels : DNA Script ; Imagene
Autres acteurs dans le monde : Voir bibliographie et sites Web en fin de texte
Contact : [email protected]
DOI (Digital Object Identifier)
CET ARTICLE SE TROUVE ÉGALEMENT DANS :
Accueil > Ressources documentaires > Innovation > Innovations technologiques > Innovations en électronique et TIC > Archivage de mégadonnées dans l’ADN > Contexte
Accueil > Ressources documentaires > Technologies de l'information > Technologies logicielles Architectures des systèmes > Big Data > Archivage de mégadonnées dans l’ADN > Contexte
Cet article fait partie de l’offre
Bioprocédés et bioproductions
(161 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Présentation
1. Contexte
L’humanité accumule des données à un rythme jamais vu et qui va exponentiellement croissant. Les données considérées ici sont celles de nos connexions familiales, amicales et professionnelles, nos livres, vidéos et photos, nos données médicales, celles de la recherche scientifique, de l’industrie etc. On parle parfois de big data ou de mégadonnées . Et bien plus est à venir : voitures autonomes, capteurs et autres objets connectés, télésurveillance, réalité virtuelle, déserts médicaux compensés par téléconsultation, diagnostic et même chirurgie à distance. En 2025, il est estimé que les trois quarts d’entre nous seront connectés, et que nous interagirons chacun avec des données toutes les 18 s en moyenne . Presque toutes ces données passent par des traitements informatiques, ce qui impose qu’elles soient représentées par de longues suites de deux éléments, notés '0' et '1' : on parle de données numériques. Ces longues suites sont souvent subdivisées en groupes de 8 éléments '0' ou '1' successifs qui sont appelés « octets » (o).
Pour rappel, un octet est une suite de 8 bits. Un bit ne prend que 2 valeurs désignées usuellement par les chiffres '0' et '1' (d’où le terme de codage « binaire » ou « numérique »). Donc il existe 256 (28) octets possibles. Nous allons considérer ici qu’un octet représente un caractère (une lettre, un chiffre, ou un symbole) parmi 256.
l’octet '00100011' code habituellement le caractère '#'.
1.1 Sphère globale des...
Cet article fait partie de l’offre
Bioprocédés et bioproductions
(161 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive
Contexte
BIBLIOGRAPHIE
-
(1) - Académie des technologies - Big data : un changement de paradigme peut en cacher un autre. - EDP Sciences (2015).
-
(2) - Commission Européenne - HiPEAC Vision 2015. - FP7 (2015).
-
(3) - REINSEL (D.), GANTZ (J.), RYDNING (J.) - The Digitization of the World – From Edge to Core. - International Data Corporation & SeaGate (2018).
-
(4) - Guide informatique - . Éd. (2008) https://www.guideinformatique.com/dossiers-actualites-informatiques/consommation-electrique-des-data-centers-29.html
-
(5) - DAVEY (J.) - Powering the data revolution. - HSBC Global Research (2019).
-
(6) - COOK (G.) - How clean is your cloud ? - Greenpeace International (2012).
-
...
DANS NOS BASES DOCUMENTAIRES
ANNEXES
Archiver les mégadonnées au-delà de 2040. La piste de l’ADN https://www.academie-technologies.fr
Les « data centers » ; de vraies usines électriques https://www.lemonde.fr
International Data Corporation digital universe study https://www.idc.com
8,6 millions de data centers dans le monde en 2017 http://hebergement-et-infrastructure.fr
Business Wire: IDC finds growth https://www.businesswire.com
Here’s how much energy all us data centers consume https://www.datacenterknowledge.com
How clean is your cloud? https://www.greenpeace.org
Molecular Information Storage (MIST) https://www.iarpa.gov
DNAshell – Imagene http://www.imagene.fr
Twist Bioscience https://www.twistbioscience.com
DNA Script http://www.dnascript.com
Oxford Nanopore Technologies https://nanoporetech.com
HAUT DE PAGECet article fait partie de l’offre
Bioprocédés et bioproductions
(161 articles en ce moment)
Cette offre vous donne accès à :
Une base complète d’articles
Actualisée et enrichie d’articles validés par nos comités scientifiques
Des services
Un ensemble d'outils exclusifs en complément des ressources
Un Parcours Pratique
Opérationnel et didactique, pour garantir l'acquisition des compétences transverses
Doc & Quiz
Des articles interactifs avec des quiz, pour une lecture constructive