Aqui você pode pesquisar os planos existentes

 


A capacidade de memória dos sistemas de informação

Publicado por 
novaescola
Objetivo(s) 

Entender e calcular o crescimento da capacidade de armazenamento dos sistemas de informação

Conteúdo(s) 

 

 

 

Ano(s) 
Material necessário 

Reportagem da Veja:

Desenvolvimento 
1ª etapa 

Introdução

Armazenar informações é uma necessidade que acompanha nossa espécie desde os seus primórdios. Provavelmente, os primeiros seres humanos já eram dotados de meios de comunicação visual e verbal que lhes permitissem criar regras (ou métodos) mnemônicas para lembrar de acontecimentos. Da escrita cuneiforme aos dias atuais, os recursos para o registro de dados se expandiram exponencialmente. Hoje, a tecnologia já nos proporciona a possibilidade de carregar no bolso um conteúdo musical de várias horas de duração, o que alguns anos atrás ocuparia um volume físico dezenas de vezes maior. A constatação desse crescimento nos remete à afirmação feita pelo americano Gordon Moore, em 1965, que passou a ser conhecida como Lei de Moore: "A quantidade de transistores que podem ser inseridos num único chip dobra a cada período de 12 a 18 meses". O Guia de VEJA é um bom ponto de partida para examinar com a garotada mais detalhadamente a história do armazenamento de informações.

Explique alguns fatos à classe. Gordon Moore, alguns anos após o enunciado da lei, veio a ser um dos fundadores da empresa Intel, fabricante de processadores, e uma das responsáveis pela comprovação prática da Lei de Moore. Ressalte que como a capacidade de armazenamento de informações de um chip é diretamente (e linearmente) proporcional a quantidade de transistores que ele contém, podemos elaborar um novo enunciado para a proposição: "a quantidade de informação passível de ser armazenada num chip dobra a cada período de 1 a 1,5 ano."

Curiosamente, essa lei vem sendo amplamente verificada - de maneira muito aproximada -, não apenas para os processadores eletrônicos, como também para os sistemas de armazenamento de informações em geral, em algumas seqüências de anos. Examine com a garotada porque a provavelmente "chutada" previsão de Moore teve ampla validade por tantos anos.

A valer a Lei de Moore em sua forma mais ampla, podemos dizer que, se num determinado instante a capacidade de armazenamento de um sistema informático é Q, um ano e meio depois ela será 2Q; três anos depois, 4Q e assim por diante. Desafie os alunos a estabelecer de imediato a função que explica a variação da quantidade de informação conforme o tempo passa. Construindo uma tabela, eles devem obter algo como I = 22t/3 x Q.


A Lei de Moore é, portanto, uma função exponencial do tempo: I(t) = f(t). Dito isso, convide a turma a construir o gráfico dessa função. Se quiser aprofundar mais o estudo, construa o gráfico com escala logarítmica para as ordenadas I e mostre que se transforma em uma reta. Os valores no eixo das ordenadas são os logaritmos na base 10 dos valores usados no gráfico anterior.

Lembre que o primeiro microprocessador foi fabricado pela Intel no início dos anos 1970. Era o modelo 4040, um chip de silício com 2.300 transistores. Atualmente, são comuns chips com centenas de milhões de transistores. Como exercício, proponha o cálculo da capacidade de armazenamento (e, proporcionalmente, da quantidade de transistores) num chip atual. Para tanto, presuma que o intervalo de tempo desde o Intel 4040 até nossos dias seja de 31 anos. O valor obtido com a equação é de cerca de 6 bilhões de transistores, correspondente a uma capacidade de armazenamento cerca de 2,6 milhões de vezes maior.

Será que esses dados calculados são compatíveis com a realidade? Um chip de memória típico de 1971 armazenava algo em torno de 256 bytes. O de hoje armazena cerca de 256 Mbytes; aproximadamente 1 milhão de vezes mais. Ou seja, a Lei de Moore não chega à exatidão, mas é uma boa indicadora da ordem de grandeza (a potência de 10) do crescimento da memória dos processadores.

 

Para ir mais longe 
Mesmo em nossos dias, nas mais diversas culturas e regiões, encontramos ainda presentes as narrativas orais, acompanhadas ou não de sons onomatopaicos, relatando coisas e feitos - o repente, o rap, a embolada, as ladainhas etc. Tudo isso é, de fato, facilitador da memorização.

A verdadeira revolução no processo de armazenar informações ocorreu a cerca de 6000 anos atrás, provavelmente na Mesopotâmia, entre os sumérios (e, talvez, na mesma época, também entre egípcios e indianos antigos): a representação gráfica simbólica dos sons usados na fala, que chamamos de escrita fonética. O passo seguinte, ainda na Antigüidade, foram os computadores analógicos, como o relógio solar, o astrolábio, a clepsidra e a ampulheta. E os digitais - o ábaco e o sorobam, por exemplo.

No fim do período medieval ocorreu uma nova revolução na representação simbólica humana, desta vez na maneira de escrever: a invenção da prensa de tipos móveis por Gutenberg. Em 1617, os bastões de Napier (Neper) já permitiam cálculos com logaritmos. Cerca de 200 anos depois, em meados do século XVII, Blaise Pascal construiu a primeira calculadora mecânica. Por volta de 1833, Charles Babbage idealizou e começou a fabricar seus computadores mecânicos: as máquinas de Diferenças e Analítica. Nenhuma delas chegou a ser completada na época. No século XX, imensas calculadoras elétricas, como a máquina de Mallock, permitiam a resolução de equações lineares. Sistemas dotados de memória são utilizados também para outras operações. Vale a pena propor um levantamento desses dispositivos - como o tear - não destinados ao cálculo, mas que se valem de memória para realizar operações.


Veja também:

Este site divulga um novo chip à base de titanato de bário e chumbo criado na Universidade Federal de São Carlos, SP

 

Créditos:
Renato da Silva Oliveira
Formação:
Professor de Física e coordenador do planetário AsterDomus, de São Paulo
Autor Nova Escola

COMPARTILHAR

Alguma dúvida? Clique aqui.