La mémoire est présente dans presque tout système électronique ou informatique. Elle est au centre des systèmes d'informations, chaque instruction utilisée dans nos programmes nécessite une forme de mémoire. Les techniques de stockage de l'information ont nettement été améliorées depuis le développement de l'informatique, domaine qui n'a cessé d'être de plus en plus gourmand dans le nombre et donc la taille des informations stockées. Si bien que nos disques durs et nos mémoires vives ont dû s'adapter, les uns pour stocker nos données personnelles, les autres pour faire tourner nos programmes de plus en plus lourds. Puis nous avons voulu exploiter ces données de plus en plus rapidement, voire instantanément, pour cela il a fallu trouver des moyens d'obtenir un débit très important en lecture mais aussi en écriture sur ces espaces de stockages. Cependant, ces technologies qui ont certes, fait leurs preuves , n'atteindraient elles pas à leur limites? Ne sommes- nous pas arrivés à la limite de ce que les phénomènes électriques et magnétiques peuvent nous permettent en terme de stockage et de diffusion de la donnée par rapport à nos exigences qui ne cessent de croître ?


Un constat

Aujourd'hui, la masse d'informations accumulée, notamment par les grosses entreprises du domaine des TIC, est difficilement manipulable. En effet cette datamasse ne peut plus être gérée via la gestion classique d'une base de données de moindre taille. On a donc créé le big data, qui consiste à soulager un peu les machines du poids que requièrent les opérations sur les bases de données de taille conséquente. Cela passe par repenser la manière dont l'utilisateur accède à l'information, c'est de là que vient le Cloud computing, qui repose sur une élaboration réfléchie des interfaces permettant d'accéder aux ressources. On développe de nouveaux modèles et logiciels, basés sur du parallélisme et du calcul distribué. Ce secteur est en pleine expansion, plusieurs écoles d'ingénieurs proposent même des cursus dans ce domaine. Cependant le traitement des bits d'information n'est pas fondamentalement modifié dans ces modèles, il repose toujours sur les mêmes technologies: de ce fait , les contraintes énoncées dans le premier paragraphe ne sont qu'atténuées.


Une critique

Et si le big data n'était pas la solution ? Certes, le big data apporte une réponse pertinente , mais pour combien de temps ? Les limites intrinsèques des technologies actuelles apparaissent de plus en plus nettement. La disques durs classiques de nos ordinateurs stagnent à 260 Mo/s , les Solid-State drive (SSD) atteignent 3Go/s mais ont une capacité de stockage bien moins importante.
Aussi perfectionnés que les algorithmes de traitement de l'information soient, ne sont-ils pas voués à être limités par les technologies qui sont leur support ?
Et si les recherches étaient orientées dans le mauvais sens ?, N'y a t – il pas une solution pour résoudre ce problème «par le haut»?
Prenons l'exemple des calculateurs quantiques sans rentrer dans les obscurs détails de la mécanique quantique mais en extrayant le pur intérêt de ceux-ci pour le traitement de données.
Dans ces calculateurs, on utilise des qubits à la place des bits, avec lesquels on tente d'obtenir une superposition de deux états dans une même case mémoire, augmentant ainsi les capacités de calcul de la machine. Malheureusement, là encore, cette technique est soumise à des contraintes matérielles: le support qu'est un circuit électronique classique n'est pas adapté.



Changer l'angle d'attaque.

J'aime bien voir la recherche dans le domaine de l'informatique quantique comme une quête qui aurait pour but d' étendre la mémoire telle qu'on la connaît aujourd'hui. Le réel problème est à mes yeux est le support de la mémoire mais plus que ça, sa constitution telle qu'elle a été introduite dans nos ordinateurs. Il faudra un jour ou l'autre changer fondamentalement l'architecture de la mémoire. Bien évidemment cela apporte son lot de problèmes: quelle sera la forme de ce nouveau support ? , comment organiser la migration des anciennes données vers celui-ci ? , quelles seront les nouvelles contraintes ?
Ce support existe-t-il ?


C'est quoi la mémoire, ça se trouve où ?

Que ce soit dans le cerveau humain ou dans un ordinateur, la mémoire a pour fonction de stocker des informations, de manière pérenne ou non, dans le but de les réutiliser par la suite. Bien que ces deux systèmes ont une façon radicalement différente de fonctionner, il me semble que l'on peut vulgariser le concept de mémoire en le réduisant à la tâche qui nous intéresse ici : «sauvegarder des données ». Il est déjà compliqué de créer de la mémoire artificiellement , mais ça l'est encore plus de la trouver à l'état naturel.
Les mécanismes du cerveau sont encore peu connus, ainsi il n'est a priori pas possible d'utiliser un hippocampe (qui joue un rôle essentiel dans la mémoire), comme une clef usb.
L'ADN est bien l'information naturelle qui à mon sens, se rapproche le plus de la manière dont on la conçoit en informatique. Stocker des données dans de l'adn est d'ailleurs une piste déjà exploitée par des scientifiques, mais qui rencontre des problème vis à vis du temps d'accès à l'information , et du coût que cela engendre.
En fait, rien dans la nature, ne semble se comporter comme une mémoire d'ordinateur.
Nous sommes donc a priori contraints d'inventer des systèmes artificiels.



La question qui à mon sens devrait primer dans l'évolution future des technologies de l'information est :
Où trouver un support qui permettrait de stocker énormément d'informations, dans un volume le plus réduit possible, avec un très haut débit d'écriture, et de lecture, et tout ça avec un faible coût ?
En bref, inventer une nouvelle mémoire.