Existe uma regra de ouro para quanto espaço deixar livre no disco rígido? Eu costumava ouvir que você deveria deixar pelo menos 5% de graça para evitar a fragmentação.
[Eu sei que a resposta depende do uso (por exemplo: arquivos de vídeo versus texto), tamanho do disco, nível de RAID, formato do disco, tamanho do disco - mas como não é prático fazer 100 variações da mesma pergunta, qualquer informação é bem-vinda]
Você geralmente deseja deixar cerca de 10% livre para evitar a fragmentação, mas há um problema. O Linux, por padrão, reservará 5% do disco para o usuário root. Quando você usa 'df', a saída não inclui esses 5% se você o executar como um usuário não root. Apenas algo a ter em mente ao fazer suas calulações.
Aliás, você pode alterar a reserva raiz usando tune2fs. Por exemplo
tune2fs -m 2 /dev/hda1
definirá a reserva raiz em 2%. Geralmente, isso não é recomendado, é claro, a menos que você tenha um objetivo muito específico em mente.
Eu tento manter o espaço usado abaixo de 80%. Acima desse número, o sistema de arquivos geralmente precisa trabalhar mais para colocar os dados no disco, levando à fragmentação.
Eu recomendaria 10% a mais no Windows, porque a desfragmentação não será executada se não houver muito espaço livre na unidade quando você a executar. Porém, deixar espaço livre não necessariamente impedirá a fragmentação. Como você já mencionou, isso depende do uso. A fragmentação é causada mais com base na quantidade de variação dos dados na unidade e no tamanho dos arquivos que estão sendo gravados e removidos. Quanto mais os dados são alterados e mais aleatórios os tamanhos de arquivo, maior a chance de ocorrência de fragmentação.
A única maneira real de minimizar a fragmentação seria desfragmentar a unidade regularmente manualmente ou usar uma ferramenta como Diskeeper, que é executada em segundo plano no Windows, limpando quando a máquina está ociosa. Existem sistemas de arquivos em que a fragmentação é tratada pelo sistema operacional em segundo plano, portanto, a execução manual de uma desfragmentação não é necessária.
Os SSDs adicionam uma nova camada a isso. Nivelamento de desgaste e amplificação de gravação. Por esses motivos, você deseja mais espaço livre do que o absolutamente necessário nos discos rígidos tradicionais.
Acariciar um disco rígido tradicional reduz a latência para leituras/gravações aleatórias. "Short Stroking" um SSD fornece ao controlador da unidade mais blocos não utilizados para rotinas de coleta de lixo/nivelamento de desgaste, para que não acelere a unidade, mas aumenta a longevidade e evita a perda de velocidade observada quando um SSD é preenchido.
Você ainda não deseja encher a unidade, mas com SSDs o efeito imediato não existe e a razão pela qual é diferente.
Eu diria que normalmente 15%, no entanto, com o tamanho dos discos rígidos atuais, desde que você tenha o suficiente para seus arquivos temporários e arquivos de troca, tecnicamente você está seguro. Porém, como prática segura, quando você atingir 15%, é hora de começar a pensar em fazer uma grande limpeza e/ou comprar um disco rígido maior/segundo.
Pelo que entendi, isso também depende do sistema de arquivos na unidade. Alguns sistemas de arquivos são mais resilientes a coisas como fragmentação de disco.
Eu sempre tentava manter cerca de 50% grátis em volumes de qualquer tipo de sistema e possivelmente em volumes de dados menores. Dimensionar 2 para 1, se possível, e eu definiria um limite de aviso em 75% ou algo assim.
Porém, para armazenamento de dados, porém, é apenas uma questão de taxa de crescimento de dados que precisa ser monitorada e/ou estimada ao configurar o monitoramento ... se os dados não crescerem muito rapidamente, por exemplo, um volume de 1 TB - alguns% para o limite de aviso seria bom e eu ficaria confortável com 90 a 95% de utilização. Se a taxa de crescimento for maior, ajuste-a para ser notificado a tempo ... muitas vezes, a fragmentação pode ser tratada se os dados não estiverem aumentando e apenas mudando com as desfragmentações programadas.
Sim, depende do uso e do sistema de armazenamento subjacente. Alguns sistemas, como os high end SAN riem da fragmentação de arquivos, causando o único impacto do sistema na fragmentação, a sobrecarga do SO dispersa as coisas por toda parte). Outros sistemas, como laptops, unidades são outra história todos juntos.E isso não entra em sistemas de arquivos mais novos, como o ZFS, onde o conceito de um limite rígido para o espaço é nebuloso, na melhor das hipóteses.
NTFS é seu próprio animal, é claro. Atualmente, dou a C:\um tamanho total de 15 GB para sistemas XP, e não brinquei com o Vista/Win7 o suficiente para saber o que recomendar lá. Você realmente não quer muito abaixo de um GB livre em C :. Usar Cópias de Sombra significa que você deve manter mais espaço 'vazio' do que você faria, e eu diria que 20% de espaço livre é o marcador para quando mais precisar ser adicionado ou limpo precisa acontecer.
Para volumes de dados NTFS antigos simples, fico preocupado quando fica abaixo de 15%. No entanto, se a unidade for de 1 TB, 15% ainda será muito espaço para trabalhar e alocar novos arquivos (o inverso é que leva muito mais tempo para desfragmentar).
Eu tento deixar 50% dele de graça por alguns motivos:
Ouvi dizer que - apesar do tamanho relativamente pequeno do arquivo de paginação -, deixar muito espaço pode acelerar as coisas. Acredito que foi do livro muito útil "PC Hacks" publicado alguns anos atrás.
Não importa o tamanho da unidade, ter o objetivo de preenchê-la até a metade faz com que você fique ciente do que está lá e, para mim, isso significa que sou melhor em arquivar ou mover coisas para um externo maior.