Linux : la (fausse) question de la RAM

Pourquoi la consommation de RAM n'a plus de sens

Je vois encore trop souvent des interventions pour comparer la consommation de mémoire vive entre les distributions Linux.

Mais cette comparaison a-t-elle encore du sens ?

Un problème ancien de rareté

La problématique de la consommation de mémoire vive se posait autrefois sur les machines disposant de peu de ressources.

Or, aujourd'hui, la machine d'entrée de gamme possède 4 à 8 Go de RAM, ce qui fait que cette rareté n'est plus d'actualité. Même si un système d'exploitation consomme 1 à 2 Go de RAM, il reste encore assez de place pour réaliser ses tâches quotidiennes, ceux qui ont des activités spécifiques – montage vidéo, … – ayant soin de gonfler leurs machines pour qu'elles répondent à leurs exigences de réactivité.

Donc, excepté si vous installez une distribution sur une machine de faible puissance, la question ne se pose plus et reste, en tout et pour tout, qu'une ancienne habitude, héritée d'un temps révolu où les ressources étaient comptées.

Dans la très grande majorité des cas, nous n'avons pas à nous restreindre parce que telle distribution utilise 500 Mo de RAM en plus.

Que compare-t-on ?

La quantité de RAM comparée n'a pas vraiment de sens si on ne connaît pas les conditions dans lesquelles les mesures sont effectuées.

zRam ou Zstandard sont parfois activés sur certaines distributions et pas d'autres. Dans ces conditions, est-il pertinent de comparer une RAM native avec une RAM compressée ? Intuitivement, nous sentons que la RAM compressée prendra moins de place. C'est même le but premier de la compression.

Sachant que la première mesure de «performance» sera la consommation de RAM, un développeur pourrait être tenté de tricher au travers de la compression de RAM, cette dernière devenant alors un cache-misère.

Que mesure-t-on ?

Nous faisons la chasse à la RAM comme si elle était le seul point de mesure faisant référence. Mais cette consommation de mémoire est-elle le signe d'une mauvaise gestion ?

À l'époque où nous nous interrogeons sur la consommation énergétique de nos appareils, quelle stratégie est la plus énergivore ? Celle qui garde tout en mémoire afin d'économiser du disque dur et du swap, ou bien celle qui privilégie les accès disques pour garder le plus de mémoire vive disponible ?

Une distribution comme Ubuntu est certes plus gourmande en RAM que son équivalent Manjaro, mais elle ne repose pas sur une rolling release. Cette méthode de mise à jour est elle-même gourmande en bande passante. Or, le trafic réseau Internet est l'un des principaux émetteur de gaz à effet de serre de l'infrastructure réseau qui le sous-tend – 3% des émissions, ce qui équivaut à peu près au secteur aérien.

Conclusion

Tout dépend de ce que nous voulons mesurer et des valeurs qui sous-tendent notre usage. Car les logiciels libres sont avant tout une question de valeurs plus que d'usage.

Je vois personnellement trop souvent des individus se triturer les méninges inutilement, focalisés sur la consommation de RAM comme s'ils en manquaient.

Or, cette rareté est caduque : je le vois lorsque je récupère des machines à la déchèterie. Il y a encore 2 ou 3 ans, je trouvais des machines 32 bits, avec 2 Go de RAM maximum. Aujourd'hui, je trouve majoritairement des i3/i5, gérant jusqu'à 8, voire 16 ou 32 Go de RAM, signe que cette limitation n'existe plus.

Et pourtant, malgré cela, ils se retrouvent à installer des distributions légères, mais souvent peu ergonomiques, parfois indigentes, les obligeant alors à trifouiller le système plus par obligation que par réel intérêt.

Cependant, il ne faut pas perdre de vue que l'informatique est avant tout un outil. Comme tout outil, c'est à lui de s'adapter à notre usage et non l'inverse. Si nous dépensons de l'énergie à le configurer pour le rendre exploitable, c'est qu'il n'est très certainement pas le bon outil.

Le choix de cet outil doit reposer non pas seulement sur des critères absolus et faussement objectifs comme la mesure de consommation de RAM, mais également sur notre représentation de l'espace. Car plus je discute avec des utilisateurs pour échanger nos points de vue sur les interfaces graphiques et notre choix individuel pour tel ou tel, plus je comprends que ce choix est fortement lié à notre perception individuelle de l'espace, aussi bien esthétique que conceptuelle. Si je suis un inconditionnel de Gnome Shell c'est parce que son fonctionnement est en parfaite adéquation avec ma façon de me représenter le monde, là où l'interface MacOSX est pour moi un labyrinthe, alors que pour d'autres, c'est l'inverse.

En définitive, ce besoin de trouver des arguments scientifiquement mesurables ne sont-ils pas une façon de justifier un choix intuitif à l'aide un biais de confirmation ?