Têm sido espetaculares os avanços realizados pela tecnologia da computação nas últimas quatro décadas, avanços esses impulsionados pela Lei de Moore, que, apesar de seu caráter inicial de mera constatação, se transformou em uma profecia autoconfirmatória e em um instrumento de planejamento para os executivos.
Gordon Moore [co-fundador da Intel] manifestou seu vaticínio sobre o progresso referindo-se somente ao número de transistores que poderiam ser incorporados de forma economicamente viável em um circuito integrado, mas a maneira pela qual esse progresso seria atingido se basearia principalmente na diminuição das dimensões do transistor.
Com isso, ocorreram ganhos colaterais em termos de performance, eficiência no uso de energia e, por último, mas não menos importante, redução de custos. A indústria dos semicondutores parece estar segura a respeito de sua capacidade de continuar diminuindo os transistores, ao menos durante cerca de uma década ainda.
Mas o jogo já começa a adquirir uma nova cara. Não podemos mais pressupor que os circuitos menores terão velocidades cada vez maiores ou consumirão energia de forma cada vez mais eficiente. À medida que nos aproximamos do limite atômico, a inconstância dos dispositivos começa a cobrar seu preço, e os custos dos projetos atingem proporções gigantescas. Isso tem afetado a lógica comercial dos projetos de uma forma que reverberará em todo o setor da computação e das comunicações.
Por exemplo, nos desktops há uma tendência de trocar os processadores simples de alta velocidade por processadores com vários núcleos, apesar do fato de a programação em paralelo para fins genéricos continuar sendo um dos problemas insolúveis da informática.
Para que os computadores se beneficiem dos futuros avanços tecnológicos, há grandes desafios à frente quanto à compreensão sobre como desenvolver sistemas confiáveis com base em uma tecnologia cada vez menos confiável e sobre como explorar de forma cada vez mais eficiente os recursos de paralelismo.
Isso significa não apenas uma melhoria de performance mas também a superação das conseqüências geradas pelas falhas de componentes.
Esta postagem traz os principais trechos da palestra proferida por STEVE FURBER na Sociedade Britânica de Computação no dia 12 de fevereiro último, publicado sob licença da Oxford University Press.
QUEM É O PROFESSOR STEVE FURBER?
Professor de engenharia da computação e presidente do Comitê de Pesquisa em Computação do Reino Unido, Steve Furber foi o principal projetista do microcomputador BBC, na Acorn Computers, na década de 80, quando também liderou o projeto do processador ARM, linha que domina o mercado de chips de celulares e micros de mão;
Está na Universidade de Manchester desde 1990. Um de seus projetos é o desenvolvimento de um computador paralelo que pretende utilizar 1 milhão de chips.
Comentários