Executando verificação de segurança...
4

[Linux] Configurando ZRAM para compactação de memória

Olá, essa é minha primeira postagem aqui no TabNews e gostaria de ensinar aos usuários de linux iniciantes como podem "reduzir" o consumo de memória, compactando os dados usando uma função que já vem diretamente no núcleo do sistema.

Esté tutorial foi testado no Debian 11(Bullseye), e provavelmente vai funcionar em qualquer distro baseada nele(Ubuntu e seus derivados por exemplo), vamos começar :)

Primeiramente é preciso instalar o pacote zram-tools então rode o seguinte comando no seu terminal:

sudo apt update
sudo apt install zram-tools

Agora temos que configurar qual o algoritmo que vai ser usado para compactar os dados e quantos MB de dados vão poder ser compactados, pra isso temos que editar o arquivo /etc/default/zramswap e definir os valores a seguir:

  • ALGO - Algoritmo a ser usado
  • SIZE - Tamanho máximo dos dados compactados

Como algoritmos para escolher temos por ordem de compactação:

zstd > lzo > lz4

E por ordem de velocidade:

lz4 > zstd > lzo

Portando aqui vamos usar o algoritmo zstd que une o melhor dos dois mundos, então temos que colocar as chaves e valores no arquivo da seguinte forma:

ALGO=zstd
SIZE=2048  # Escolhi um tamanho de 2GB

Agora é só reiniciar o sistema e aproveitar!

Para verificar o uso da zram você pode usar o comando:

zramctl

Obrigado por ler e ate a próxima!!

Links que podem ser úteis:

Carregando publicação patrocinada...
1

NANIIIIIII?! Mas que diabos velho, mal faço o cadastro no tabnews e já me deparo com uma mina de ouro dessas? Chega a ser até assustador de tão legal. Confesso que ainda estou com o pé atrás... vou dar uma pesquisada aqui antes pra ver se é mesmo veridico (sem ofensa).

OBS: Uso Linux há cinco anos e nunca tinha ouvido falar da existencia de compactação de memória ram #assustado

1

O fato de utilizar esses algoritmos para diminuir o uso de memória RAM, por outro lado não aumenta o uso de processamento da CPU tendo em vista que será necessário compactar/descompactar informação a todo momento?

1

Sim, existe um aumento no uso da CPU pra compactar e descompactar os dados mas mesmo tendo esse aumento ele ainda compensa mais que usar SWAP em disco da forma tradicional

O uso do zstd como algoritmo é um dos motivos dele compensar mais, porquê, ele compacta/descompacta muito rápido gastando pouco processamento

1

Em questão de velocidade você notou uma boa melhora? Creio que deve fazer diferença em máquinas com pouca memória RAM, no entanto, é de se esperar se tiver pouca memória o processador não deve ser muito potente também.

1

Notei, no meu caso o notebook que uso é bem fraco, tem apenas 4GB de RAM DDR3 de 1333MHz e um processador AMD E-300 de 2x 1.3GHz com 1 thread por núcleo, não é sempre que preciso usar a zram mas sempre que é preciso ela se sai melhor que o swap comum em disco, antigamente quando eu não tinha a zram configurada era sofrido pra rodar programas depois que a memória chegava perto do limite(eu usava um HDD, agora uso um SSD e tenho 4GB de swap mas nem chega a usar)

Obs: Tenho 512MB de RAM separada pra VRAM da GPU integrada, o neofetch diz que tenho 3382MiB de RAM quando tira essa dedicada

1