Breaking News
Home / Calendário Comemorativo / Dia da Informática

Dia da Informática

DA VÁLVULA AO TRANSISTOR OS PRIMEIROS COMPUTADORES MODERNOS

PUBLICIDADE

Desde 1847 o matemático inglês George Boole (1815-­1864) desenvolve os raciocínios lógico-matemáticos condicionais que levam o seu nome (Álgebra Booleana).

As primeiras décadas do nosso século, em particular os anos que se seguem à 1ª Guerra Mundial, encontram o mundo amadurecido, técnica e teoricamente, para a construção dos modernos computadores: o dinamarquês Valdemar Poulsen (1869-1942) efetua os primeiros registros magnéticos de dados em um fio de arame (1900), abrindo caminho para a memória magnética; o norte-americano Lee De Forest inventa a válvula (1906), artefato que consiste basicamente num interruptor eletrônico; Claude Shannon demonstra (1938) que conjuntos de interruptores eletrônicos (válvulas) podem realizar operações lógicas, abrindo caminho para os Circuitos Eletrônicos. Mas só com o advento da 2ª Guerra Mundial é que as nações em conflito mobilizam os enormes recursos necessários para construir aparelhos de computação.

Na Alemanha, em Berlim, Conrad Zuze (1910-?), engenheiro aeronáutico, dedica-se a partir de 1936, a um projeto que chama de Z-1. Construído à noite, com a ajuda de amigos na casa onde mora com os pais, o Z1 efetua as quatro operações aritméticas, calcula raízes quadradas e converte números decimais em notação binária e vice­versa.

Desconhecendo os fundamentos de Babbage, Zuze chega a muitas conclusões semelhantes, redescobrindo os princípios da álgebra booleana também. Fixa-se na idéia de Leibniz, de representar os dados e as instruções em forma binária. Uma máquina puramente mecânica não lhe é satisfatória e Zuze considera a hipótese de uma máquina completamente eletrônica, embora a guerra não lhe permita obter os componentes necessários, e em 1941 termina um computador eletromecânico, o Z2.

O governo alemão, engajado no esforço de guerra, não demonstra interesse inicial pelo invento, mas posteriormente fornece recursos para desenvolver o Z3, um computador elétrico, com relés em lugar das juntas mecânicas utilizadas nos modelos anteriores, e um desenho mais compacto e elegante.

Apesar dos bombardeios aliados, que o obrigam a mudar o local da oficina diversas vezes, e do exército alemão que o convoca para o front por dois períodos, o protótipo do Z3 é concluído.

O racionamento de materiais durante a guerra impõe a improvisação de componentes a partir de peças usadas de telefones, e as instruções são alimentadas por velhas películas cinematográficas de 35mm, perfuradas com um código de oito furos por quadro. O Z3 armazena 64 palavras de 22 bits cada. A informação é introduzida por um teclado, e os resultados exibidos num painel de lâmpadas.

Todos os protótipos de Zuze são destruídos quando do bombardeio de Berlim na ofensiva final aliada em 1945, mas sabe-se que um dos seus modelos, adaptado, auxiliou os cálculos do projeto da bomba voadora alemã HS-293. O Z4, ultimo computador de Zuze no período de guerra, aumenta o tamanho das palavras para 32 bits. Levada para Gottingen quando os aliados marcham sobre Berlim, a máquina acaba em Basileia, na Suíça, onde opera até 1954. Sem conseguir fabricar computadores na Alemanha ocupada, Zuze concentra-se na teoria, desenvolvendo a linguagem “Plankalkul”.

Ao conseguir novamente fabricá-los, monta a Zuze Company, a maior fabricante de computadores alemã até 1969, quando é incorporada pela Siemens.

Para os E.U.A. as informações são mais abundantes e contraditórias: ao que tudo indica, os dois projetos iniciais são militares.

O projeto do exército nasce em 1943 quando um coronel propõe a construção de uma máquina para cálculos balísticos.

Esse “Computador Balístico” é construído por George Stibitz (que em 1938 apresentara trabalho sobre máquinas acionadas por relês): o programa é gravado em fita e ela efetua as quatro operações.

Ao mesmo tempo, a Marinha desenvolve um projeto próprio, secreto, de computação: de 1937 a 1943, na Universidade de Harvard, constrói um computador que permanece como segredo militar até ser dado a conhecer ao público em 1944, quando é doado à Universidade: o Harvard Mark I. Entra em funcionamento em 1943, mas apesar de ser um sucesso, estava obsoleto assim que ficou pronto, levando à construção de um modelo mais aperfeiçoado.

Esse modelo seria o de uma idéia de Howard Hathaway Aiken (1900-?) em 1937, para construir uma máquina de Babbage usando equipamento de tabulação adaptado.

Convencendo a IBM a entrar na construção (1939), o êxito de um primeiro protótipo, embora mecânico, anima a IBM a investir num modelo aperfeiçoado, com relês eletromecânicos: o Harvard Mark II, de 1945.

É com ele que surge o termo “bug”, que utilizamos até hoje para designar qualquer erro de programa. Quem usa a expressão pela primeira vez é Grace Murray Hopper, matemática colaboradora de Aiken, referindo-se a uma traça que acidentalmente pousando numa válvula, queimou-a, paralisando a operação do equipamento.

Até 1944, as instruções dirigidas ao computador eram armazenadas externamente à máquina (fitas perfuradas, cartões perfurados, ou pluges e fios). Em 1945, John von Neumann (1903-1957, apresenta o conceito de programação interna, armazenamento codificado de instruções na memória do computador. A idéia é posta em pratica no EDVAC – “Electronic Discrete Variable Computer”, construído pela Universidade da Pensilvânia (1946) com os engenheiros John W. Mauchly e John Prosper Eckert.

Este é o primeiro computador a trabalhar com números em base binária, e também com palavras, chegando a colocar uma lista de nomes em ordem alfabética.

A mesma Universidade da Pensilvânia apresenta em 1946, uma máquina onde os relês eletromecânicos são substituídos por válvulas eletrônicas.

É o ENIAC – “Electronic Numerical Integrator and Computer”, primeiro computador eletrônico programável. Nele trabalham, além de Mauchly e Eckert, nomes como Alan Turing e John von Neumann. As estatísticas do projeto também estão em qualquer apostila. A máquina funcionou até 1952, quando é aposentada devido aos altos custos de manutenção e complexidade de operação.

Na Inglaterra, Alan Turing (1912-1954) retoma as idéias de Babbage e na tentativa de demonstrar se seria possível uma máquina que resolvesse quaisquer problemas matemáticos, num trabalho chamado “On Computable Numbers” (1936) aprofunda os fundamentos teóricos lógicos para os computadores, entre os quais o princípio da programação: a máquina deveria receber uma série de instruções numa fita continua, dividida em unidades, lendo a instrução de uma unidade, processando­a e passando à unidade seguinte.

Suas teorias são postas em prática na Escola de Códigos e Cifras, incumbida de decifrar os códigos “Enigma” alemães: em 1943, sob sua orientação, é construído o “Colossus”, um computador eletro-mecânico para esse fim. Vencida a Guerra, no período de 1949 a 1951 é desenvolvido o ACE – “Automatic Computing Engine”, no National Physical Laboratory, projetado pelo mesmo Turing para uso genérico, que colaborará ainda no projeto do Ferranti Mark I da Universidade de Manchester.

No período do pós-guerra, enquanto nos E.U.A. a universidade da Pensilvânia desenvolve o EDVAC, a de Cambridge trabalha no EDSAC e na Inglaterra prossegue o projeto do ACE, uma técnica liga todos: o recurso a tubos de mercúrio para armazenamento de memória.

Na Inglaterra, a Universidade de Manchester, opta por utilizar tubos de raios catódicos para esse fim, com êxito em fins de 1948, o que conduz ao projeto do Manchester Mark I.

Uma empresa local, a Ferranti, oferece apoio, e produz uma versão comercial (Ferranti Mark I), que chega ao mercado em fevereiro de 1951, cinco meses antes do UNIVAC norte-americano.

Em 195O, Mauchly e Eckert estão trabalhando numa máquina chamada BINAC, e montam o próprio negócio para fabricar uma versão comercial do ENIAC: a Eckert & Mauchly Computer Corporation.

Convidada a fazer parte da equipe, Grace Hooper desenvolve programas de uso comercial para a máquina. É ela quem cria a primeira linguagem de programação, junto com o compilador necessário para traduzi-lo em linguagem de máquina, o A­O. O projeto da empresa é chamado UNIVAC – “Universal Accounting Machine” segundo umas fontes, ou “Universal Automatic Computer”, segundo outras.

As válvulas eletrônicas, que o compõem, permitem que tarefas que até então consumiam um ano, demorem apenas um dia, e é o primeiro a utilizar fitas magnéticas para alimentação e armazenamento de dados. A companhia de ambos é adquirida no ano seguinte pela Remington Rand, que no mesmo ano, tem a primeira unidade comprada pelo US Census Bureau.

Em 1954 é vendida a primeira unidade a um cliente particular: a General Electric.

É partir da década de 50, que empresas como a Burroughs, NCR e outras iniciam a produção de computadores e sistemas, entrando nesse mercado em bases competitivas.

A IBM já havia se apoderado do mercado com o seu IBM 650, e em 1953 chegam ao mercado os primeiros computadores para cálculos científicos, a linha IBM 701. Apesar de inventado em 1947 nos laboratórios da Bell Telephone norte-americana (William Shockley, Walter Brattain e John Bardeen ganham o Prêmio Nobel de Física de 1956 pela descoberta), o transistor apenas está disponível comercialmente a partir de 1954. Em 1959 é introduzido o IBM 1401.

15 de Agosto

A informática é, talvez, a área que mais influenciou o curso do século XX. Se hoje vivemos na Era da Informação, isto se deve ao avanço tecnológico na transmissão de dados e às novas facilidades de comunicação – ambos impensáveis sem a evolução dos computadores.

Existe informática em quase tudo que fazemos e em quase todos os produtos que consumimos. É muito difícil pensar em mudanças sem que em alguma parte do processo a informática não esteja envolvida.

Desde seus primórdios no século XX, quando possuía finalidade exclusivamente científica e militar, a informática já era usada pelos governos, como a Alemanha e os Estados Unidos. Ainda hoje, computadores são utilizados para rastrear e orientar naves e tanques, e também organizar planejamentos estratégicos e armazenar dados militares.

Os governos dos países utilizam a informática no recenseamento, agilizando sua apuração, e também para disponibilizá-la à população.

É o que você pode conferir aqui no IBGE: oferecemos informação pela Internet e por softwares de recuperação de dados.

Os bancos também monitoram contas e cadastros através da informática; pessoas no mundo todo podem conversar em tempo real através de computadores; crianças podem aprender através da informática e já existem até cursos à distância facilitados pelo computador e pela Internet.

Sem os computadores, o homem não teria chegado à Lua; não poderíamos manter os satélites no espaço; não transmitiríamos as notícias tão rápido e com tamanho alcance; demoraríamos horas para conseguirmos certos resultados de cálculos ou determinadas pesquisas; certos aparelhos de hospitais não existiriam e os exames de laboratório não seriam tão precisos. E por aí vai…

ANTIGUIDADE E INFORMÁTICA

A história da informática acompanha o processo de criar e armazenar dados, algo que já é feito desde a Antiguidade.

A palavra vem da junção de dois vocábulos: informação e automática. Logo, a idéia de agilizar a recuperação de informações tem sido trabalhada há muito tempo, com a diferença que agora as mudanças são bem mais rápidas do que antes.

Repare bem: em 3.500 a.C., já havia o mais antigo instrumento de cálculo: o ábaco.

Costuma-se dizer que o ábaco é o embrião da informática. Por quê Porque foi o primeiro dispositivo de computação, mesmo que ainda usando meios mecânicos.

Era composto de varetas ou barras e pequenas bolas, usadas para fazer contas.

Os chineses adaptaram o ábaco e, por volta de 2.500 a.C., nasceu um sistema chamado “Suan-Pan”. Eram palitos empilhados que, dependendo da posição, mudavam de valor. Quando dispostos sobre uma tábua, era possível fazer cálculos com as quatro operações básicas.

ÀS VÉSPERAS DO SÉCULO XX

No século XIX, começaram a pipocar inventos com objetivo de “imitar” o pensamento, ou pelo menos suas funções de memória. Obviamente eram muito rudimentares em comparação às máquinas atuais, mas é interessante notar o caminho trilhado pelos cientistas da época.

Eles estavam buscando desenvolver mecanismos automáticos (lembra da Revolução Industrial) e entre eles estava o invento de Jacquard: uma espécie de tear automático, que fazia desenhos de acordo com o comando de algumas placas perfuradas.

O tecelão poderia variar o padrão do tear de acordo com as placas: cada uma dava um comando diferente. Este conceito foi uma das grandes influências ao se conceber o computador. Isto foi em 1801, e cerca de 30 anos depois, em 1834, foi a vez da famosa Máquina Analítica, do inglês Charles Babbage.

Babbage não pôde concluir a Máquina Analítica por falta de recursos, mas sua concepção foi revolucionária.

Trazia os principais conceitos da informática: programas, memória, unidade de controle e periféricos de saída, utilizando também cartões perfurados.

O invento de Babbage inspirou o primeiro computador eletrônico-mecânico, em 1890.

Com ele, o censo americano de 1890 saiu bem mais rápido: antes, levava sete anos para apurar os resultados; com o computador, pôde apurar em seis semanas!

A ÁRVORE GENEALÓGICA DOS COMPUTADORES

Qual o computador de última geração?

As mudanças são tão rápidas que ninguém sabe dizer com certeza. Mas é possível acompanhar a evolução de várias eras de computadores, que a maioria dos estudiosos divide em cinco gerações.

Acompanhe aqui a árvore genealógica da informática:

A primeira geração: funcionando por meio de válvulas a vácuo, compreende o período de 1940 a 1952. As informações eram gravadas em cartões perfurados.

A segunda geração: de 1953 a 1964, a partir de transistores. Com a diminuição do tamanho das máquinas, seu uso se estende à área administrativa e gerencial (antes era restrita ao campo científico e militar).

A terceira geração: é a dos circuitos integrados, que reinaram de 1964 a 1971.

A quarta geração: é a dos microprocessadores, até 1981. Os computadores ficam bem menores e surgem novas linguagens. Nasce a teleinformática (possibilidade de computadores trocarem dados entre si através de rede).

A quinta geração: a partir de 1981, é a vez dos computadores pessoais (PCs) e VLSI, com alta velocidade e interatividade.

O SÉCULO DA INFORMÁTICA

E no século passado, o que aconteceu

O primeiro computador eletromagnético surgiu nos Estados Unidos em 1937. Impulsionado pela guerra (acabara a Primeira Guerra Mundial e em breve despontaria a Segunda), o computador foi criado para calcular trajetórias de projéteis da Marinha, mas só ficou pronto depois que a Segunda Guerra acabou!

Foi também com o final da Segunda Guerra Mundial que nasceu o ENIAC, o pai dos computadores modernos. O sistema binário utilizado nos computadores atuais, contudo, só veio a ser utilizado em 1954, junto com a noção de programação, graças a John Von Newmann.

Mas os computadores da época eram muito limitados. E o pior; ocupavam um espaço enorme! Alguns ocupavam uma sala inteira – e estamos falando de salas grandes! O computador pessoal, que fica sobre uma mesa, ainda era um sonho distante.

Em 1959 surgiu um novo modelo com um espaço dez vezes menor e capacidade cem vezes maior. E isso ainda era muito pouco, comparado com o que temos hoje. O minicomputador ocupava o espaço de um quartinho pequeno. Foi com os micros que tudo mudou.

15 de Agosto

UMA BREVE HISTÓRIA DA INFORMÁTICA

Há quem goste de remontar a história dos computadores e do processamento de dados à pré-história, ligando-a a marcas em ossos ou pedras. Há quem o faça à Antiguidade, com os ábacos sumérios, chineses ou romanos.

É fato que aprendemos a contar nos dedos, e que os primeiros ábacos têm cerca de 5.000 anos: os mais primitivos, simples placas de argila, madeira ou pedra, com sulcos onde pequenos seixos são deslizados, e os mais conhecidos, os de contas em armações de varetas.

O termo vem do grego “ábakos”, com o significado de tábua, prancha; as demais expressões vêm do latim: dígito de “digitus” (dedo), cálculo de “calculus” (pedrinha, seixo), de onde por sua vez derivam calcular e calculadora; computar, de “computare”, justaposição de “cum” (com) e “putare” (contar); contar, por fim, é a ação de utilizar “contas”.

Essa pequena incursão à origem das nossas atuais palavras, demonstra cabalmente serem esses os instrumentos mais antigos que a nossa cultura conheceu para essa função.

O importante é fixar que, desde os primórdios aos nossos dias, a história do processamento de dados, e a do próprio cálculo, ligam-se cada vez mais intimamente à evolução da vida econômica e do pensamento lógico do Homem.

A complexidade da civilização agrícola e urbana exigiu o aperfeiçoamento do cálculo em geral, e cada cultura encontrou soluções próprias: os orientais até hoje recorrem ao ábaco, que permite operações velozes e confiáveis; os sumérios e egípcio: desenvolveram sistemas de contagem calendários, e os rudimentos da geometria (além da escrita para registrá-los); os grego; afamaram-se na geometria, os romanos na engenharia; os hindus inventaram o zero trazido por árabes para o ocidente cristão medieval.

Na América pré-Colombiana desenvolveram-se matemáticas complexas ligadas às observações celestes, das quais mesmo hoje, pouco conhecemos.

DA TEORIA À PRATICA

Na Europa pré-Renascentista, as necessidades da burguesia e do capitalismo mercantil desenvolvem uma economia monetária e os rudimentos da Contabilidade.

O aumento das receitas (e das despesas) exige novos e aperfeiçoados meios de cálculo e de controle, multiplicando as Universidades, impulsionando pesquisa e a ciência.

O sucesso desse fórmula é atestado pela passagem do capitalismo mercantil para o pré-industrial que redobra as exigências do cálculo, e prepara a fundamentação teórica que leva às máquinas de calcular. Aqui começam normalmente as cronologias das apostilas; John Napier (1550-1617, matemático escocês, inventa os Logaritmos (1614), recurso lógico que reduz a divisão à subtração e a multiplicação à adição, e os chamados “Ossos de Napier” – tabelas de multiplicação gravadas em cilindros rotativos de madeira.

Devido à complexidade de cálculo dos logaritmos, o seu colega inglês William Oughtred (1574-1660) representa-os, para esse fim, em uma escala de madeira: a primeira régua de cálculo de que se tem notícia, e que alguns consideram como o primeiro computador analógico da História.

A primeira máquina de calcular de que se tem notícia é a do astrônomo alemão Wilhelm Schickard (1592­1635). Pouco se sabe desse aparelho, além de que fazia as quatro operações, e se perdeu durante a Guerra dos Trinta Anos (1618-1648).

O próprio inventor, morto de peste, não pode defender a sua primazia pelo invento.

Por isso, atribui-se ao matemático e filósofo francês Blaise Pascal (1623-1662) a invenção da primeira máquina (“Pascaline”, 1642), um mecanismo com capacidade para oito dígitos, efetuando apenas a adição e a subtração, construída para auxiliar o pai, um coletor de impostos.

Gottfried Wilhelm Leibniz(1646-1716), alemão, aperfeiçoa esse invento, introduzindo o chamado “Cilindro de Leibniz”. Projeta ainda (1671), uma máquina que efetua as quatro operações, e que, segundo uns teria sido apresentada à Royal Society inglesa (1673), segundo outros, teria sido concluída (1694) mas apresentando problemas técnicos. Todas estas máquinas operavam em bases decimais.

Calculadoras mecânicas surgem posteriormente, embora aparelhos práticos e confiáveis só estejam disponíveis na segunda metade do século XIX: William S. Burroughs inicia a produção de máquinas de somar (1866), fundando a companhia com o seu nome; comuns no início do nosso século, permanecem difundidas até serem suplantadas pelas calculadoras eletrônicas no começo da década de 70.

A Revolução Industrial traz as bases da economia de escala, e o séc. XVIII convive com vários dispositivos e máquinas para calcular, analógicos para grandezas (réguas de cálculo, relógios, contadores e medidores em geral), e digitais para valores, representados por algarismos, letras ou qualquer outro símbolo (ábacos, calculadores).

O princípio dos maquinismos é idêntico: o usuário alimenta os números girando uma série de botões ou rodas, acionando manualmente uma alavanca ou outra roda para efetuar a operação desejada.

Esses aparelhos constituíam-se em curiosidades mecânicas, sem aplicação prática, pois o recurso a um calculista hábil era sempre mais prático e veloz. Entretanto mesmo o operador mais hábil e destro comete erros no processamento de operações longas e/ou monótonas e repetitivas.

E isso se aplicava aos operários nas linhas de produção das maiores fábricas da época: a indústria de tecidos. Em 1799, numa França que sob Napoleão pretende suplantar o poderio da indústria inglesa, o inventor Joseph-Marie Jacquard (1752-1834) constrói um tear mecânico que reproduz infinitamente padrões coloridos nos tecidos, segundo instruções fornecidas por fileiras de cartões perfurados “lidos” por um sistema de pinos.

Os cartões de Jacquard são o exemplo clássico de um algoritmo -especificação da sequência ordenada de passos, que deve ser seguida para a realização de uma tarefa, garantindo a sua repetibilidade.

O sistema é tão prático e perfeito que milhares de tecelões desempregados se revoltam, sabotam as máquinas (do francês “sabot” -tamanco- calçado de madeira utilizado pelos operários para paralisar as engrenagens), e alguns chegam mesmo a tentar matar Jacquard, pioneiro involuntário do desemprego industriai em massa.

Napoleão é derrotado em 1815, mas a idéia de Jacquard não, e será aproveitada justamente por um inglês – Charles Babbage (1792-1871), membro da Royal Society, professor de matemática em Cambridge, onde ocupa a mesma cadeira que pertencera a Isaac Newton.

As tabelas numéricas do Séc. XIX estão cheias de erros, e mesmo que houvessem sido calculadas corretamente, as sucessivas reimpressões perpetuam­nos e acrescentam outros, novos. Inventor prolífico, de personalidade ao mesmo tempo excêntrica e genial, Babbage tem a idéia (1811) de construir uma máquina que não apenas calcule, mas também automaticamente imprima as entradas desse tipo de tabelas.

Chamou-a de “Difference Engine” por calcular o que em matemática são chamadas Equações Diferenciais, apresenta em 1822 à Royal Society um protótipo que usa 8 posições decimais, e obtém um crédito do governo inglês (1823) para construí-la.

Dificuldades levam-no a abandoná-la, entre outros motivos, porque os cartões perfurados de Jacquard sugerem a Babbage uma idéia muito melhor: um aparelho capaz de efetuar quaisquer cálculos de acordo com as instruções de cartões perfurados.

A partir de 1834, passará as quatro ultimas décadas de sua vida no projeto do que chama “Analytical Engine”, composto de quatro partes ou módulos, interligadas:

a) Computação: adição, subtração, multiplicação, divisão e uma operação decisória elementar

b) Memória: um banco de mil “registradores” cada um com capacidade para 50 dígitos

c) Alimentação: controle/entrada de dados/instruções por cartões perfurados

d) Saída: relatório impresso automaticamente.

Se essa máquina houvesse sido completada, o Séc. XIX teria conhecido o primeiro computador moderno: um dispositivo com memória, controlado por um programa, utilizado para processar dados.

É o programa, conjunto ordenado de instruções que determina ao dispositivo o que, como, onde e quando fazer que o torna diferente de uma calculadora.

O governo inglês, sem retorno prático na primeira máquina de Babbage, não se dispôs a repetir o erro com a segunda, que jamais teve um protótipo, de qualquer maneira de construção impossível com a tecnologia e os materiais da época. Apesar disso, um programa de demonstração é escrito (1835) para sua operação, por Lady Lovelace (Ada Augusta Byron, Condessa de Lovelace, única filha legítima do poeta Lorde Byron). Ada, que além da educação formal em idiomas e música, era excelente matemática, com este programa calcularia séries matemáticas de números.

É a ela – a primeira programadora – que devemos o estabelecimento de importantes funções em programação:

Sub-rotinas

Sequências de instruções que podem ser utilizadas várias vezes em diversos contextos;

Loops

Instruções que retomam a leitura/execução de uma instrução específica, de modo que ela possa ser repetida;

Salto Condicional

Instrução cuja satisfação de uma condição permite ou não o “salto” para outra instrução;

O processamento de dados propriamente dito, inicia­se nos E.U.A. em 1886, quando o estatístico Hermann Hollerith, (1860-1929) funcionário do National Census Office, observa que o processamento manual dos dados do censo de 1880, demora cerca de 7 anos e meio para ser concluído.

Raciocinando que o censo seguinte, de 1890, não estaria totalmente apurado antes do ano de 1900 devido ao aumento da população, dedica-se à construção de uma máquina para tabular esses dados. No censo de 1890, 300 de suas máquinas, baseadas nos princípios de Babbage e empregando cartões perfurados, diminuem a demora do processamento de cerca de 55 milhões de habitantes para cerca de 2 anos.

O sucesso da máquina leva Hollerith a fundar a própria companhia (1896) para fabricá-la e comercializá-la: a Tabulating Machine Company. Através de uma política comercial agressiva, incorporando três outras empresas, suas máquinas serão vendidas para os Departamentos de Censo de governos de todo o mundo, e mais tarde para companhias particulares de porte.

Em 1924 o nome da Companhia é alterado para IBM – Industrial Business Machines, pioneira no emprego da eletricidade para a perfuração/leitura de cartões. A tecnologia de cartões perfurados só será superada nos anos 60 deste século.

 

15 de Agosto

A ERA DO “CHIP” E O ADVENTO DO MICROCOMPUTADOR

Altair 8800 Em 1958 Jack Kilby (Texas Instruments) descobre como reunir todos os componentes de um circuito eletrônico numa única pastilha de silício.

Nasce o circuito Integrado: um “chip” de cinco peças fundidas numa única barra de 1,5 cm2.

Com poucos meses de diferença, Robert Noyce (Fairchild Semiconductors) tem a mesma idéia, e na década de 60 ambos repartem as honras da invenção. O local onde funciona a Fairchild -Silicon Valley-, uma região agrícola ao sul da Baia de São Francisco na Califórnia, é invadido por gigantes da microeletrônica. De lá sairão os primeiros computadores de pequeno porte, como o PDP 1, da Digital Equipment Corp., em Palo Alto.

Dia da Informática

A partir de 1962 os ingleses tentam recuperar a liderança no setor, perdida desde a década de 50 para os norte-americanos. Com a tecnologia do transistor, o ATLAS, da Universidade de Manchester, utiliza um formato de palavra de 48 bits com endereço único, memória principal de 16 Kb e ROM de 8Kb.

Discos magnéticos são utilizados pela primeira vez, e o ATLAS mantém por anos a reputação de o mais avançado da época.

A corrida tecnológica dos laboratórios atinge as fábricas: a partir de 1963 inicia-se a produção comercial dos Circuitos Integrados, e já em 1964 a IBM apresenta o System/360, primeira família neles baseada. Em 1965 a DEC apresenta um minicomputador, o PDP-8, abrindo caminho para as mini-plataformas.

Em 1969 a IBM “abre” a arquitetura de seus hardware e software, permitindo uma revolução de software e mais tarde de hardware.

A década de 70 traz a tecnologia LSI – “Large Scale Integration”, que concentra milhares de transistores em uma única pastilha de silício.

Rapidamente passam a ser dezenas, e logo centenas de milhares (tecnologia VLSI – “Very Large Scale lntegration”), o que se refletirá, inclusive, na arquitetura das máquinas.

Produzidos em escala industrial, com qualidade e baixo custo, são incorporados a outros equipamentos, ampliando os benefícios do controle computadorizado: máquinas de lavar, fomos de microondas, televisores, som, vídeo e automóveis, numa revolução micro-eletrônica.

Dia da Informática

A partir desse momento, a CPU (Unidade Central de Processamento) -parte mais importante de um computador- passa a estar contida num único “chip”, o microprocessador. O primeiro é o INTEL 4004, lançado comercialmente em 1971.

A Intel (Integrated Electronics) Corporation, fundada em 1968 por Gordon Moore e Robert Noyce, com o projeto de um tipo de “chip” de memória regravável, 100 vezes mais caro do que a utilizada à época, no primeiro ano de vida, dá um lucro de apenas US$ 2,672.

O INTEL 4004 com capacidade para 4 bits, manipulados em blocos de 4 dígitos binários, só pode usar pequenas quantidades de memória, o suficiente para pequenos programas de controle, e destina-se a calculadoras, caixas registradores e similares.

Em 1972, é apresentado o microprocessador INTEL 8008, de 8 bits, com maior capacidade, e alguns hobbistas de eletrônica começam a pensarem construir os próprios computadores baseando-se no novo “chip”. Uma versão melhorada é apresentada em 1974, o INTEL 8080, que mudará o mundo…

Com blocos de dados de 8 bits, manipula até 64 Kb de memória para programas maiores.

A esta altura, outros fabricantes começam a concorrer com a INTEL: o “chip” 6800 da MOTOROLA era semelhante ao 8080 em termos de hardware, mas utiliza instruções diferentes para operar, iniciando-se os problemas de compatibilidade de software entre máquinas.

Em 1974 a IBM lança a tecnologia RISO – “Reduced Instruction Set Computer”, como alternativa à CISO – “Compact instrution Set Computer” até então vigente. A tecnologia RISO constitui-se de um conjunto de instruções reduzidas, o que toma o acesso à memória e às operações mais rápidos. Os “chips” RISO são utilizados em estações de trabalho (“workstations”), acelerando trabalhos gráficos e operações cientificas que exigem grandes cálculos.

A edição de julho de 1974 da revista norte-americana Radio Electronics, publica um artigo acerca de um computador caseiro baseado no microprocessador INTEL 8008.

Mais de dez mil leitores adquiriram os esquemas de construção detalhados, embora devido à complexidade do projeto e à dificuldade de obtenção dos componentes necessários, não se possa quantificar os que chegaram efetivamente a montá-los.

A edição de janeiro de 1975 da revista Popular Eletronics apresenta o ALTAIR 8800, um microcomputador também baseado no Intel 8008, assim batizada devido a um episódio da série televisiva “Star Trek”.

Um kit completo para a montagem do ALTAIR é oferecido por US$ 397 (trinta a mais que o custo do microprocessador), mais despesas de correio, por uma empresa de Albuquerque, no Novo México, a MITS – “Micro Instrumentation Technology Systens”. Seu dono, Edward Roberts, engenheiro aposentado da USAF, tenta com isso salvar a empresa, ameaçada de falência após o fracasso do lançamento de uma calculadora eletrônica.

Pega um empréstimo bancário de US$ 65,000, comprometendo­se a vender 500 kits em um ano, mas a resposta dos leitores é avassaladora, inundando a MITS com ligações telefônicas, e em apenas um mês essa quantidade é alcançada. No ano de 1975 a empresa vende um milhão de dólares, três milhões no ano seguinte, atingindo em 1977 o faturamento recorde de US$ 20 milhões.

O sucesso da MITS incentiva dezenas de outras companhias a produzir os próprios modelos.

A MicroSoft Corporation nasce quando dois estudantes de Harvard, William Henry Gates III (Bill Gates) e Paul Allen, constituem uma sociedade para desenvolver software.

O primeiro produto é um interpretador BASIC (desenvolvido num DEC PDP-10), vendido para a MITS, fabricante do Altair, e que passa a fazer parte do “kit” do micro.

Entretanto, o grande impulso para a popularização dos micros vem da fundação da APPLE, em 1976. Dois jovens engenheiros – Steven Jobs e Steve Wozniak – com 21 e 26 anos respectivamente, vendem todo o patrimôniopessoal (uma calculadora eletrônica e uma kombi), e com o capital assim obtido, e uma garagem emprestada por parentes, desenvolvem o APPLE I – o microcomputador mais simples até então construído, com memória, UCP, entrada e saída montados numa única placa de circuitos.

O microprocessador é o Mostec 6502 de 8 bits. Esse primeiro projeto (ironicamente rejeitado pela Hewlett Packard) vende, de imediato, 50 unidades. Animada, a dupla apresenta a placa no Homebrew Computer Club, um grupo de hobbistas em São Francisco/Califórnia, que recebe a idéia calorosamente, incentivando a dupla a fundar a APPLE Computer Company (mais tarde APPLE Inc.). Sinclair ZX80

No mesmo ano, na Inglaterra, Clive Sinclair lança o ZX 80, baseado no “chip” Zilog Z80, de 8 bits, o computador pessoal mais barato do mercado (menos de US$ 150), graças à racionalização do projeto, com a metade dos componentes utilizados nos concorrentes. Além do baixo preço, o sucesso da máquina deve-se ainda ao poderoso BASIC nela instalado.

O modelo vende 50.000 unidades em poucos meses, estimulando o lançamento do ZX81, ainda menor e mais avançado (apenas 4 chips). Este, vende mais de um milhão de unidades em apenas dois anos, devolvendo a Inglaterra ao páreo da corrida tecnológica. O Sinclair Spectrum (1982) será o responsável pela introdução da cor nos micros da família Z80.

No ano seguinte ao lançamento, a placa em que se constituía o APPLE I recebe um microprocessador Rockwell 6507 (também de 8 bits, da família do Mostec 6502), uma caixa com teclado e um monitor: está lançado o “desktop” APPLE II, o primeiro a ser aceite por usuários comerciais. Isso se deve, além do BASIC incluído, a um programa simples, uma planilha de cálculo chamada VisiCalc. É o primeiro micro a ter unidade de disco flexível, uma prática adaptação para 5 1/4″ do disco flexível de 8″.

Também em 1977, a canadense Commodore Business Machines lança o PET 2001 (“Personal Electronic Transactor”), baseado no mesmo Mostec 6502. Seguir-se-ão os lançamentos do VIC-2O (1981), com um milhão de unidades vendidas, do famoso C-64 de 8 bits, também baseado no 6502 e com capacidade para processar som, e do C-128, que jamais obteve a mesma repercussão.

O estrondoso sucesso de vendas do APPLE leva a Tandy Corporation a entrar no ramo, lançando através de sua rede de lojas – a Radio Shack – o TRS-80 Model I (“Tandy Radio Shack”), o Model II e finalmente o TRS-80 Model III, todos com base no “chip” Z80 de 8 bits.

Aproveitando essa tecnologia, entra ao mesmo tempo no universo dos videogames com o TandyVision.

Em 1978 a INTEL anuncia o chip 8088, de 16 bits como o 8086, mas com um projeto mais simples, e capacidade de processamento semelhante ao “mainframe” IBM 360/50.

O micro doméstico, neste momento já é uma realidade: o mercado está ávido pelo produto a um custo razoável, e as empresas esforçam-se para atender a demanda. De apenas CPUs com microprocessadores de 8 bits, memória de até 240 Kb, ligados a aparelhos domésticos de televisão, os dados armazenados em fitas K7, a sua capacidade aumenta e o emprego de disquetes de 5 1/ 4″ difunde-se.

Paralelamente à indústria de hardware, desenvolve-se a de periféricos, e, rapidamente, a de software, para atender a demanda crescente de utilitários e de jogos. A partir de 1980 os microcomputadores tomam-se acessíveis ao grande público, a preços cada vez menores, e é significativo que em 1982 a revista norte-americana TIME eleja o micro como “Homem do Ano”.

Com atraso em relação aos concorrentes, a IBM entra no mercado de computadores pessoais lançando em 12/ 08/81 o seu IBM-PC (“Personal Computer”), baseado num processador INTEL 8088, de 16 bits.

O sistema operacional que escolhe como padrão é o da MicroSoft, o DOS 1.0. A entrada da “Big Blue” nesse segmento consolida definitivamente a importância do microcomputador. Apoiada nos seus poderoso marketing, tradição, e na sua capacidade industrial e de vendas, o PC transformou-se na máquina profissional por excelência, abrindo as portas de um mercado milionário…

Por ironia, aparentemente, a própria IBM, acorrentada aos velhos tempos, em que o tamanho do computador era documento, não se deu conta de que o PC representava uma revolução. A concorrência sim, e rapidamente entra em campo para fabricar os chamados PC-compatíveis (a IBM abrira sua arquitetura desde 1969), que em poucos anos abocanham 84% de um mercado que pertencera quase que 100% à IBM. A INTEL introduz em 1982 o chip 80286, trás vezes mais veloz que o 8088, e que executa várias tarefas ao mesmo tempo, base dos computadores 286.

Para fazer frente ao sucesso do IBM-PC, a APPLE lança o MACINTOSH (1983), o primeiro computador pessoal com interface gráfica, outra revolução: um micro ainda mais fácil de ser utilizado por um leigo.

Dia da Informática

Além de possibilitar o uso de cor, gráficos e fórmulas, traz uma novidade para permitir a utilização do interface gráfico: um periférico chamado “mouse”, que simplifica a utilização de ícones e menus suspensos na tela. Estas inovações haviam sido lançadas um pouco antes pela própria APPLE, num modelo voltado para aplicações profissionais, o LISA. A arquitetura é baseada nas exigências do software, com um microprocessador Motorola 68000 de 32 bits. Atari 130ST

É com base nesse mesmo Motorola, o mais avançado à época, que Jay Minner, ambicionando criar o videogames definitivo dos anos 80, projeta o LORRAINE.

Funda a AMIGA, que não demora a atravessar dificuldades: segundo a “lenda”, seus sócios preocupavam-se mais com videogames do que com a parte comercial.

A ATARI surgiu como opção para adquirir a companhia, pretendendo incorporar o projeto ao do seu ATARI ST, mas o acordo falha e é fechado com a Commodore.

O AMIGA 1000 é lançado em 1985, mas vítima de um marketing que o apresenta ao mesmo tempo como uma estação gráfica, “multitasking”, profissional, pessoal e doméstico, não vende o esperado, sendo desmembrado em duas versões: o Amiga 500, destinado a aplicações domésticas, e o Amiga 2000, destinado a aplicações profissionais: nascia a família Commodore/Amiga, que hoje, junto com o Apple/Macintosh e o IBM/PC são as linhas pessoais mais populares do planeta.

Em 1987, visando reconquistar o público e liquidar a concorrência, a IBM lança uma segunda geração de computadores pessoais – a linha PS, destinada a substituir a linha PC. O PS/2, de 32 bits, uma nova família operando com o sistema operacional OS/2, é apresentado como uma grande evolução no mercado.

Na verdade, desenvolvido originalmente para ser o “Windows” dos computadores de grande porte, por exigências estratégicas foi estendido aos microcomputadores. A idéia principal reside no fato de que o PC, por se constituir num sistema aberto, pode ser copiado livremente. Mas quem deseje produzir clones do PS/2 deve pagar royalties à iniciadora da tecnologia, e a IBM esperava com isso, aplicar um cheque-mate aos concorrentes, pois líder de mercado, acreditou que os consumidores abraçariam imediatamente o novo produto, forçando a que os concorrentes, sem clientes, fossem obrigados a produzir cópias do PS/2, pagando-lhe royalties.

Os consumidores, entretanto, continuam a preferir os micros PC, ao mesmo tempo em que os preços continuam em queda livre, dando prejuízo à IBM, e reduzindo ainda mais sua participação no mercado.

Em maio/93 a Intel lança o microprocessador Pentium, sucessor do 80486 e com o dobro do seu desempenho, destinado a “mainframes”.

Para os micros, é preparado o Intel Pentium Over Drive, de 32 bits, que pode ser instalado pelo próprio usuário na placa-mãe, num soquete azul destinado a esse fim.

O mercado, hoje em 1995, dispõe, rompidas as limitações iniciais do Pentium, de versões de 60, 66, 90 e 100 MHz, capacidade mais do que suficiente para rodar as aplicações comuns de um PC DOS.

E novamente o Apple/Macintosh sai na frente com o PowerMac, baseado no Power PC 601 RISC de 60 MHz, enquanto a mídia da IBM promete o seu Power PC, baseado no Power PC 615, que também poderá ser colocado nos “slots” overdrive preparados para receber os Pentium.

Enquanto isso, o lançamento do Commodore Amiga CD-32 revoluciona o mercado de aparelhos domésticos de lazer, prometendo substituir os CD, os V-K7; os Videogames e o próprio computador pessoal com disquetes, ao mesmo tempo em que a notícia de que a Commodore Amiga será vendida, despertam as declarações dos fabricantes de soft e de hardware de que continuarão produzindo enquanto houver demanda por parte dos usuários, demanda essa que permanecerá forte, por pelo menos mais cinco anos enquanto o preço das máquinas estiver caindo, num fenómeno semelhante ao que acontecera com o C-64, que mesmo completamente obsoleto em 1992, ainda era produzida e exportado para os países do Leste Europeu, e com o próprio IBM-PC, do qual ainda existem exemplares de XT e AT 286 rodando comercialmente, embora a preços cada vez menores.

Do terreno do “hardware”, a disputa invade o mercado milionário do “software”, onde sistemas operacionais, de redes, plataformas, programas de suporte, aplicativos, e jogos, disputam a atenção e a preferência do usuário.

O terreno de batalha é a mídia, num conflito onde as armas são as promoções, a compatibilidade de sistemas, o suporte ao usuário e expressões como SOHO, “user friendly” e “WYSIWYG” (“what you see is what you get”) são os gritos de guerra.

Em tempos de sistema operacional OS/2 WARP (olha “Star Trek” de volta – deu certo para o Altair…), de “chips” Pentium com defeito de fábrica sendo substituídos pela Intel, e de máquinas Power, quem consegue prever o futuro?

A CAMINHO DO PC VERDE

O chip que compõe o microcomputador, sem dúvida revolucionou o mundo, técnica, e economicamente.

O próprio micro fez revoluções na Administração, na cultura e na sociedade. Se as máquinas de grande porte, os “mainframes” da década de 50/70 refletiram uma filosofia centralizadora de uma geração que se mobilizou para uma guerra mundial e viveu a “Guerra Fria” à espera do conflito que devastaria o planeta, o fruto dessa expectativa é a INTERNET, cuja filosofia é totalmente descentralizada.

Em sua acelerada evolução, os computadores pessoais ganharam tal poder de processamento que passaram a assumir tarefas antes exclusivas dos mainframes. A mudança, que representa uma tendência de mercado, ganhou o nome de “downsizing”, e por esse processo, numerosas empresas que por décadas se apoiaram nos “mainframes” transferem a totalidade ou parcelas de seu processamento para microcomputadores ligados em rede, a custos significativamente menores, e muitas vezes com resultados melhores, uma vez que os micros são mais versáteis.

O fenômeno da descentralização, como Alvin Toffler já previra no final da década de 70 é mais profundo, é a chamada “Terceirização”, que em alguns pontos já atingiu mesmo uma “Quarteirização”, e no mundo da informática, com o auxílio da micro-informática, revela-se em termos de arquiteturas abertas, tanto para sistemas, quanto para programas.

Mas nem tudo são flores. Se o computador pessoal prometia reduzir drasticamente o consumo de papel nos escritórios, guardando arquivos eletronicamente, ao permitir a impressão de todos os tipos de rascunho com destino final o lixo, antes de se obter a forma definitiva do documento, fez o contrário. Junte-se a esse desperdício involuntário de papel, as centenas de manuais necessários para dominar o assunto (com cada vez maior número de páginas e menor tempo de vida útil), às dezenas de subprodutos tóxicos e não degradáveis envolvidos no processamento de informações (plásticos, cartuchos, fitas, cilindros, tintas, pilhas e baterias), sem falar dos CFCs envolvidos na limpeza industrial de placas e componentes, e temos uma indústria altamente poluente.

O primeiro passo para solucionar o problema ambiental é a campanha dos produtos com o selo “Energy Star”, lançada nos E.U.A. pela E.P.A. – Environment Protection Agency em meados de 1993, visando motivar os grandes fabricantes – IBM, Apple, Epson, Hewlett-Packard, Compac – a seguir normas de conservação de energia.

Existem outros pontos a questionar: o impressionante volume de recursos desperdiçados na compra de equipamentos desnecessários e/ou mal dimensionados às reais necessidades dos usuários; o fenômeno do “home-work”, que para algumas mentes ingênuas trata­se de uma evolução que permite maior conforto ao trabalhador, sem questionar que o principal afetado é o lazer do trabalhador, que de 40h/semanais passa a trabalhar na prática até 52 horas por semana sem controle; o fenômeno do treinamento de usuários, dilui as fronteiras entre os mundos acadêmico e profissional.

O aumento na capacidade de processamento das máquinas torna reais coisas que até ontem pertenciam à Ficção Científica. Hoje (1995) a multimídia é uma realidade quer com os Macintosh, os Amiga ou os PC.

O grande desafio é a compatibilidade, mas da mesma forma que o CDs substituíram o vinil, e as fitas de VK7 os filme Super-8 e o próprio cinema em parte, desde já o microcomputadores domésticos estão substituindo o CDs, os vídeos, as enciclopédias, e quem sabe o que mais.

Os avanços em direção à lógica “fuzzy” são visíveis tomando os programas “inteligentes”: um processada de texto comum, atualmente reconhece e corrige os erro mais comuns de seu usuário. O processamento de só é uma conquista, e o de palavras/vozes de maneira prática não está distante.

Para quem não sabe onde chegar, qualquer ponto é destino, diz um ditado chinês. Aconteceram tantas coisa nos últimos dez anos que é difícil explicar para os hoje adolescentes, que nossos primeiros programas era gravados em fitas K 7. Será que alguém guardou um TK82C ou um CP 500?…

Fonte: www.cobit.xpg.com.br

15 de Agosto

15 de Agosto

No século XIX, muito tempo antes da era eletrônica, o inglês Charles Babbage chegou tão perto das funções de um computador que hoje em dia ele é conhecido como o pai do computador.

Dia da Informática

A primeira máquina construída segundo as especificações de Babbage, a máquina de Diferenças, era alimentada por um motor à vapor. ela calculava tábuas de logaritmos pelo método da diferença constante e registrava os resultados em uma placa de metal.

Dia da Informática

O modelo de trabalho que ele produziu em 1822 era uma calculadora de seis dígitos capaz de preparar e imprimir tábuas numéricas. Em 1833, Babbage divulgou o plano de uma máquina para efetuar uma ampla escala de tarefas de computação em um estoque de 100 unidades de 40 dígitos.

Um engenho composto de engrenagens e rodas manipularia os números, obedecendo às instruções fornecidas por um operador através de cartões perfurados.

Calculadora de Babbage

A idéia de perfurar cartões não era nova. Joseph-Marie Jacquard, um tecelão de seda francês, inventara esse recurso para seu tear de seda automatizado.

A tecnologia de Jacquard chegou a tal grau de refinamento que a tecelagem de um intrincado padrão na seda requeria a perfuração de 10 mil cartões.

Infelizmente, a tecnologia do tempo de Babbage não estava ao alcance do notável maquinário que ele projetou.

Ele jamais conseguiu terminar sua Máquina analítica, mas concebeu os princípios fundamentais do moderno computador.

Dia da Informática

Herman Hollerith

Herman Hollerith construiu o que tem sido considerado como o primeiro processador de dados do mundo, para contar e tabular o censo americano de 1890.

A história dessa realização começou em 1880, quando Hollerith trabalhava como agente especial do censo. Ele observou a penosa lentidão do processo de contagem, no qual um exército de funcionários trabalhou manualmente durante cinco anos para analisar, organizar e publicar os resultados.

Hollerith desenvolveu a idéia de utilizar cartões do tamanho das notas de dólar, com 12 fileiras de 20 furos, correspondendo a idade, sexo, lugar de nascimento, estado civil, número de filhos e outros dados do cidadão.Os apuradores transferiam as respostas para os cartões, perfurando os lugares adequados.

Depois colocavam os cartões em uma máquina de tabulação: cada vez que um pino encontrava um furo, a informação era registrada em um quadro de mostradores. Assim foram computadas as informações acerca de 62.622.250 pessoas, no censo americano de 1890.

Hollerith aperfeiçoou depois sua invenção e para a fabricação de suas máquinas fundou a empresa que veio a fazer parte da corporação conhecida hoje como IBM.

As idéias de Charles Babbage se concretizaram 70 anos após sua morte, quando os pesquisadores da Universidade de Harvard, chefiados por Howard Aiken, começaram a trabalhar na calculadora Mark I, em 1941.

A Mark I efetuava por segundo três adições e subtrações, ou uma multiplicação, podia resolver em um dia problemas matemáticos que tomariam seis meses de uma pessoa., com a ajuda de uma calculadora. Mas a Mark I foi logo ultrapassada pelo Eletronic Numerical Integrator and Computer, ou ENIAC construído com válvulas eletrônicas (1ª geração de computadores).

J.P. Eckert e John Mauchly, da Universidade da Pensilvânia, inauguraram o novo computador em 14 de fevereiro de 1946. O ENIAC era mil vezes mais rápido do que qualquer máquina anterior, resolvendo 5 mil adições e subtrações, 350 multiplicações ou 50 divisões por segundo.

E tinha o dobro do tamanho do Mark I: encheu 40 gabinetes com 100 mil componentes, incluindo cerca de 17 mil válvulas eletrônicas. Pesava 27 toneladas e media 5,50 x 24,40 m e consumia 150 kW.

Apesar de seus inúmeros ventiladores, a temperatura ambiente chegava às vezes aos 67 graus centígrados. Executava 300 multiplicações por segundo, mas, como foi projetado para resolver um conjunto particular de problemas, sua reprogramação era muito lenta. Tinha cerca de 19.000 válvulas substituídas por ano.

Em 1943, antes da entrada em operação do ENIAC a Inglaterra já possuía o Colossus, máquina criada por Turing para decifrar os códigos secretos alemães. Possuía 2.000 válvulas, coincidentemente o mesmo número proposto por Zuse alguns anos antes.

Em 1945 Von Neumann sugeriu que o sistema binário fôsse adotado em todos os computadores, e que as instruções e dados fôssem compilados e armazenados internamente no computador, na sequência correta de utilização. Estas sugestões tornaram-se a base filosófica para projetos de computadores. (Atualmente pesquisam-se computadores “não Von Neumann”, que funcionam com fuzzy logic, lógica confusa) A partir dessas idéias, e da lógica matemática ou álgebra de Boole, introduzida por Boole no início do século XIX, é que Mauchly e Eckert projetaram e construíram o EDVAC, Electronic Discrete Variable Automatic Computer, completado em 1952, que foi a primeira máquina comercial eletrônica de processamento de dados do mundo.

Eles haviam tentado isso com o BINAC, computador automático binário, de 1949, que era compacto (1,40 x 1,60 x 0,30 m) o suficiente para ser levado a bordo de um avião, mas que nunca funcionou a contento. O EDVAC utilizava memórias baseadas em linhas de retardo de mercúrio, bem mais caras e lentas que os CRTs, mas também com maior capacidade de armazenamento. Wilkes construiu o EDSAC, Electronic Delay Storage Automatic Calculator em 1949, que funcionava segundo a técnica de programas armazenados.

O primeiro computador comercial de grande escala foi o UNIVAC, UNIVersal Automatic Computer, americano, de 1951, que era programado ajustando-se cerca de 6.000 chaves e conectando-se cabos a um painel. A entrada e saída de informações era realizada por uma fita metálica de 1/2 polegada de largura e 400 m de comprimento.

Ao todo, venderam-se 46 unidades do UNIVAC Modelo I, que eram normalmente acompanhados de um dispositivo impressor chamado UNIPRINTER, que, sozinho, consumia 14.000 W. Outro foi o IBM 701, de 1952, que utilizava fita plástica, mais rápida que a metálica do UNIVAC, e o IBM 704, com a capacidade fenomenal de armazenar 8.192 palavras de 36 bits, ambos da IBM. Na Inglaterra surgem o MADAM, Manchester Automatic Digital Machine, o SEC, Simple Electronic Computer, e o APEC, All-Purpose Electronic Computer.

Entre 1945 e 1951, o WHIRLWIND, do MIT, foi o primeiro computador a processar informações em tempo real, com entrada de dados a partir de fitas perfuradas e saída em CRT (monitor de vídeo), ou na flexowriter, uma espécie de máquina de escrever (Whirlwind quer dizer redemoinho).

Em 1947 Bardeen, Schockley e Brattain inventam o transístor, e, em 1953 Jay Forrester constrói uma memória magnética.

Os computadores a transístores surgem nos anos 50, pesando 150 kg, com consumo inferior a 1.500 W e maior capacidade que seus antecessores valvulados. Era a segunda geração. Exemplos desta época são o IBM 1401 e o BURROUGHS B 200. Em 1954 a IBM comercializa o 650, de tamanho médio.

O primeiro computador totalmente transistorisado foi o TRADIC, do Bell Laboratories. O IBM TX-0, de 1958, tinha um monitor de vídeo de primeira qualidade, era rápido e relativamente pequeno, possuia dispositivo de saída sonora e até uma caneta óptica.

O PDP-1, processador de dados programável, construído por Olsen, virou sensação no MIT: os alunos jogavam Spacewar! e Rato-no-labirinto, através de um joystick e uma caneta óptica.

Em 1957 o matemático Von Neumann colaborou para a construção de um computador avançado, o qual, por brincadeira, recebeu o nome de MANIAC, Mathematical Analyser Numerator Integrator and Computer.

Em janeiro de 1959 a Texas Instruments anuncia ao mundo uma criação de Jack Kilby: o circuito integrado.

Enquanto uma pessoa de nível médio levaria cerca de cinco minutos para multiplicar dois números de dez dígitos, o MARK I o fazia em cinco segundos, o ENIAC em dois milésimos de segundo, um computador transistorizado em cerca de quatro bilionésimos de segundo, e, uma máquina de terceira geração em menos tempo ainda. A terceira geração de computadores é da década de 60, com a introdução dos circuitos integrados.

O Burroughs B-2500 foi um dos primeiros. Enquanto o ENIAC podia armazenar vinte números de dez dígitos, estes podem armazenar milhões de números. Surgem conceitos como memória virtual, multiprogramação e sistemas operacionais complexos. Exemplos desta época são o IBM 360 e o BURROUGHS B-3500.

Em 1960 existiam cerca de 5.000 computadores nos EUA. É desta época o termo software. Em 1964, a CSC, Computer Sciences Corporation, criada em 1959 com um capital de 100 dólares, tornou-se a primeira companhia de software com ações negociadas em bolsa.

O primeiro minicomputador comercial surgiu em 1965, o PDP-5, lançado pela americana DEC, Digital Equipament Corporation. Dependendo de sua configuração e acessórios ele podia ser adquirido pelo acessível preço de US $ 18,000.00.

Seguiu-se o PDP-8, de preço ainda mais competitivo. Seguindo seu caminho outras companhias lançaram seus modelos, fazendo com que no final da década já existissem cerca de 100.000 computadores espalhados pelo mundo.

Em 1970 a INTEL Corporation introduziu no mercado um tipo novo de circuito integrado: o microprocessador. O primeiro foi o 4004, de quatro bits. Foi seguido pelo 8008, em 1972, o difundidíssimo 8080, o 8085, etc. A partir daí surgem os microcomputadores.

Para muitos, a quarta geração surge com os chips VLSI, de integração em muito larga escala.

As coisas começam a acontecer com maior rapidez e frequência. Em 1972 Bushnell lança o vídeo game Atari. Kildall lança o CP/M em 1974.

O primeiro kit de microcomputador, o ALTAIR 8800 em 1974/5. Em 1975 Paul Allen e Bill Gates criam a Microsoft e o primeiro software para microcomputador: uma adaptação BASIC para o ALTAIR. Em 1976 Kildall estabelece a Digital Research Incorporation, para vender o sistema operacional CP/M. Em 1977 Jobs e Wozniak criam o microcomputador Apple, a Radio Shack o TRS-80 e a Commodore o PET.

A planilha Visicalc (calculador visível) de 1978/9, primeiro programa comercial, da Software Arts.

Em 1979 Rubinstein começa a comercializar um software escrito por Barnaby: o Wordstar, e Paul Lutus produz o Apple Writer. O programa de um engenheiro da NASA, Waine Ratliff, o dBASE II, de 1981. Também de 1981 o IBM-PC e o Lotus 1-2-3, de Kapor, que alcançou a lista dos mais vendidos em 1982.

Fotos do ENIAC:

Dia da Informática

Dia da Informática

Dia da Informática

Fonte: www.velhosamigos.com.br/www.cobit.xpg.com.br/br.tripod.com/ www.informatic.hpg.com.br/

 

 

Veja também

Dia dos Pais

Dia dos Pais, Brasil, Família, Mundo, Amigo, Papel, Origem, Importância, Paternidade, Comemoração, Dia dos Pais

Símbolos do Natal

Símbolos do Natal, Origem, Árvore, Presépio, Simbologia, Velas, Guirlanda, Estrela, Papai, Noel, História, Cartões, Comidas, Ceia, O Que é Símbolos do Natal

Paráfrase ao Pai Nosso

Paráfrase Pai Nosso, Orãção, Natal, Significado, Jesus, Cristo, Criador, Salvador, São Francisco de Assis, Céus, Santificado, O Que é Paráfrase Pai Nosso

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios são marcados com *

Time limit is exhausted. Please reload the CAPTCHA.