Talvez pela volatilidade da informação em ambiente digital, terceirização de responsabilidades e .... dá-me muito receio escrever este texto sem citar uma fonte, tornando-o um mero conjunto de parágrafos de ficção em uma nação utópica.
Vez ou outra artigos na Wikipedia contém referências com broken links e a busca torna-se um pouco mais demorada para encontrar aquela fonte de informação citada a fim de consultá-la como fonte primária, afinal, Wikipedia é uma enciclopédia colaborativa e pode conter viéses bem como erros ou omissões. Seria útil nas referências preservar também dois ou mais diferentes hashes (para evitar colisões) de cada documento citado. Caso desapareça e tempos depois reapareça, aqueles hashes são a única evidência que permite a ligação ao artigo. A Wikipedia mantém um histórico de edições mas, até onde se sabe, não armazena o conteúdo dos links indicados, ou seja, a fonte da informação externa. Geralmente alguns autores de artigos remetem à uma versão preservada no archive.org, por exemplo. O archive.org se define-se como uma biblioteca sem fins lucrativos US 501(c)(3), construindo um arquivo global de sites da Internet e outros artefatos culturais em formato digital. Há também o arxiv.org que armazena milhões de artigos acadêmicos nas áreas de física, matemática, ciência da computação, biologia quantitativa, finanças quantitativas, estatística, engenharia elétrica e ciência de sistemas e economia. No caso de obras gratuitas, várias são encontradas em bases como o Project Gutenberg.
Não certo disto, mas o Google deve ser um dos maiores detentores de conteúdo em seu histórico de caches que até pouco tempo disponibilizava somente a versão mais recente. Quem souber como acessá-lo em uma timeline, o conteúdo estático e dinâmico que já esteve online poderia ser pesquisado em diferentes épocas, claro, respeitando as licenças atribuídas.
A IDC afirma que o universo digital está dobrando a cada dois anos. Em 2013, eram 4,4 trilhões de gigabytes no planeta. Esse número deve crescer para 44 trilhões de gigabytes até 2020; ou seja, vai se multiplicar por dez.
Fonte: https://exame.com/tecnologia/conteudo-digital-dobra-a-cada-dois-anos-no-mundo/
Acredita-se que hoje com a vasta quantidade de material de boa e má qualidade publicado na internet, cabe à cada um filtrar, de maneira imparcial, preservando os eventos e conhecimento histórico de maneira descentralizada. Curar, ou seja, fundamentar e aferir conteúdo por diferentes fontes de informação é trabalhoso e caro, principalmente se for de cunho histórico, político e atualidades. Pontos de vista podem representar um risco caso só estes persistam ao longo do tempo. Geralmente carregam um viés, uma influência do seu autor a partir de "um ponto de vista". Uma imagem que ficou bem conhecida exemplifica melhor estas palavras.
Fonte: https://www.facebook.com/beingmepetering/photos/a.760067257755635/1055013218261036/?type=3
A reescrita parcial ou completa da História ou mesmo a supressão de fatos que fizeram parte dela, tira das próximas gerações a liberdade de conferir e "aprender com aquele passado". Tornam-se reféns, fadados a repetir no seu tempo os mesmos erros de gerações anteriores, vivendo sob o poder/influência de gurus para definir suas escolhas, opções e não seres livres com sua própria razão e consciência construídas ou balizadas pelo conhecimento das experiências vividas por seus antepassados.
Diferente da mídia impressa e distribuida na forma de panfletos, jornais, revistas, livros, enciclopédias, mídias físicas etc., que dificilmente pode ser rastreada sua existência e consultas, o conteúdo digital centralizado é uma faca de dois gumes. Permite, por exemplo, estatísticas que fundamentaram a manchete da postagem como dá ao detentor outros poderes: manter, alterar ou destruir o conteúdo além de rastrear seu consumo (total ou parcial por técnicas de page scroll tracking e/ou heat maps) em qualquer tempo segundo os logs armazenados. Aparentemente todo mundo já sabe disto pois leem as longas Políticas de Privacidade e Uso :).