Facebook do Portal São Francisco Google+
+ circle
Home  Dia da Informática  Voltar

Dia da Informática

 

15 de Agosto

A história da computação começou recentemente para a humanidade, se considerarmos a evolução da espécie. O computador é uma máquina capaz de efetuar cálculos com um grupo de números, armazenar e exibir o que foi computado e, ainda, adaptar-se para efetuar outros cálculos com um novo grupo de números.

Dia da Informática

O primeiro "modelo" foi o ábaco, um ancestral do computador, usado desde 2000 a.C.; ainda é encontrado no Japão e em outros países. O ábaco consta de um tabuleiro retangular de madeira, com fileiras de arames nos quais deslizam pequenas bolas, ou argolas, usadas em operações aritméticas, feitas manualmente, movimentando-se as bolas em grupos.

Blaise Pascal, matemático, físico e filósofo francês, inventou a primeira máquina calculadora em 1641, aos 18 anos de idade, talvez para ajudar o pai, que era fiscal de impostos. Pascal chamou a invenção de "pascalina".

Outro "pai" do computador é o matemático inglês Charles Babbage, que nasceu numa rica família inglesa, em 1792. Em 1834, criou uma máquina de calcular analítica que tinha muitas das características dos computadores modernos. Os "programas" eram controlados por cartões perfurados, e os resultados saíam impressos automaticamente.

Havia também um "contador" aritmético e dispositivos de memória separados. Grande parte da arquitetura lógica e da estrutura dos computadores atuais provêm dos projetos de Babbage, que é lembrado como um dos fundadores da computação moderna.

Em 1936, as idéias de Babbage foram comprovadas, quando um jovem matemático inglês, Alan Turing, publicou um artigo chamado "On computable numbers" [Sobre números computadorizados].

Embora Turing seja quase desconhecido, sabe-se que ele liderou uma equipe de pesquisa na Inglaterra e desenvolveu a mais secreta invenção da Segunda Guerra Mundial: o Colossus, primeiro computador eletromecânico do mundo, que podia decifrar os códigos alemães durante a guerra.

Depois da guerra, Turing colaborou no projeto do primeiro computador eletrônico dos Estados Unidos, o Eletronic Numerical Integrator and Calculator (Eniac), desenvolvido na Universidade da Pensilvânia, em 1946. Turing era desconhecido porque trabalhava para o serviço secreto inglês.

O desenvolvimento do computador continuou, mas só com a invenção do transistor de silício, em 1947, tornou-se possível aumentar a velocidade das operações na computação. Os transistores substituíram as válvulas, por serem mais rápidos, mais exatos e não gerarem calor.

Em meados da década de 1960, os cientistas observaram que um circuito eletrônico funcionaria de modo igualmente satisfatório se tivesse o tamanho bem reduzido. Os laboratórios começaram experimentando a gravar o circuito num único chip de silício. Antes do fim da década de 1960 nasceu o "circuito integrado".

O desenvolvimento de um circuito em um único chip levou, naturalmente, à construção de múltiplos circuitos em um só chip. O resultado da colocação de vários chips juntos é o conhecido microprocessador.

Apesar da pouca semelhança entre a tecnologia do microchip atual e os diversos projetos de Babbage e Turing, pode-se afirmar que a estrutura prática criada por Babbage ainda é utilizada nos microprocessadores atuais. A teoria matemática de Turing, que possibilitou tudo isso, ainda não foi superada.

O computador é, pois, uma máquina que armazena sinais elétricos que representam números. Alguns destes são instruções que dizem ao computador o que fazer com os outros números.

A máquina segue essas instruções com exatidão, sem se cansar e sem cometer erros (embora reproduza fielmente os erros do programador); processa milhares de operações por segundo, cujo resultado são mais números, por sua vez "traduzidos" nas informações desejadas e numa forma compreensível.

A atividade dos programadores (seres humanos) torna o computador um instrumento útil, explorando sua destreza para realizar tarefas e transformando problemas em soluções.

Os computadores digitais do início do século XXI podem ser comprados em supermercados e se tornaram máquinas populares capazes de realizar um grande número de tarefas, dependendo de como são programados pelos usuários.

Apesar de a informática facilitar a vida do ser humano, ele não pode deixar que as máquinas substituam completamente o seu trabalho, porque o progresso tem de estar a seu serviço e não contra ele.

Fonte: www.paulinas.org.br

Dia da Informática

15 de Agosto

No dia 15 de agosto, comemora-se o Dia da Informática, tecnologia que, desde seu surgimento, vem revolucionando o mundo.

Neste dia do ano de 1946, surgiu a Eniac, o primeiro equipamento que mereceu ser chamado de computador.

Apesar de operar com válvulas, o Eniac era totalmente eletrônico e processava dados com eficiência. Conta-se que esse computador nasceu do esforço dos EUA para construir a bomba atômica no fim da Segunda Guerra Mundial.

Fonte: www2.portoalegre.rs.gov.br

Dia da Informática

15 de Agosto

A utilização de computadores na educação é tão remota quanto o advento comercial dos mesmos. Esse tipo de aplicação sempre foi um desafio para os pesquisadores preocupados com a disseminação dos computadores na nossa sociedade.

Já em meados da década de 50, quando começaram a ser comercializados os primeiros computadores com capacidade de programação e armazenamento de informação, apareceram as primeiras experiências do seu uso na educação.

Dia da Informática

Por exemplo, na resolução de problemas nos cursos de pós-graduação em 1955 e, como máquina de ensinar, foi usado em 1958, no Centro de Pesquisa Watson da IBM e na Universidade de Illinois - Coordinated Science Laboratory (Ralston & Meek, 1976, p. 272).

No entanto, a atividade de uso do computador pode ser feita tanto para continuar transmitindo a informação para o aluno e, portanto, para reforçar o processo instrucionista, quanto para criar condições do aluno construir seu conhecimento.

Quando o computador transmite informação para o aluno, o computador assume o papel de máquina de ensinar e a abordagem pedagógica é a instrução auxiliada por ele. Essa abordagem tem suas raízes nos métodos tradicionais de ensino, porém ao invés da folha de instrução ou do livro de instrução, é usado o computador.

Os software que implementam essa abordagem são os tutoriais e os de exercício-e-prática.

A INFLUÊNCIA DA INFORMÁTICA NA EDUCAÇÃO AMERICANA E FRANCESA NO BRASIL

A Informática na Educação, no Brasil, nasceu a partir do interesse de educadores de algumas universidades brasileiras motivados pelo que já vinha acontecendo em outros países como Estados Unidos da América e França. Em 1971 a Primeira Conferência Nacional de Tecnologia em Educação Aplicada ao Ensino Superior (I CONTECE), realizada na Universidade Federal de São Carlos, E.

Huggins, especialista da Universidade de Dartmouth, E.U.A., minstrou um seminário intensivo sobre o uso de computadores no ensino de Física (Souza, 1983). Em 1982, no I Seminário Nacional de Informática na Educação, realizado em Brasília, Mme. Françoise Faure, encarregada da Área Internacional da Direção Geral das Indústrias Eletônicas e de Informática da França, ministrou uma das duas palestras técnicas do evento - a outra foi ministrada por Felix Kierbel, Diretor do Centro Nacional de Ensino de Informática do Ministério da Cultura e Educação da Argentina (Seminário Nacional de Informática na Educação 1 e 2, 1982).

BREVE VISÃO HISTÓRICA DA INFORMÁTICA NA EDUCAÇÃO NO BRASIL

No Brasil, como em outros países, o uso do computador na educação teve início com algumas experiências em universidades, no princípio da década de 70. Em 1971, foi realizado na Universidade Federal de São Carlos um seminário intensivo sobre o uso de computadores no ensino de Física, ministrado por E. Huggins, especialista da Universidade de Dartmouth, E.U.A. (Souza, 1983).

Nesse mesmo ano, o Conselho de Reitores das Universidades Brasileiras promoveu, no Rio de Janeiro, a Primeira Conferência Nacional de Tecnologia em Educação Aplicada ao Ensino Superior (I CONTECE).

Durante essa Conferência, um grupo de pesquisadores da Universidade de São Paulo (USP), acoplou, via modem, um terminal no Rio de Janeiro a um computador localizado no campus da USP (Souza, 1983).

Na UFRJ, em 1973, o Núcleo de Tecnologia Educacional para a Saúde e o Centro Latino-Americano de Tecnologia Educacional (NUTES/CLATES) usou software de simulação no ensino de Química. Na UFRGS, nesse mesmo ano, realizaram-se algumas experiências, usando simulação de fenômenos de Física com alunos de graduação.

O Centro de Processamento de Dados desenvolveu o software SISCAI para avaliação de alunos de pós-graduação em Educação. Em 1982, o SISCAI foi traduzido para os microcomputadores de 8 bits como CAIMI, funcionando como um sistema CAI e foi utilizado no ensino do 2º grau pelo grupo de pesquisa da Faculdade de Educação (FACED), liderado pela Profa. Lucila Santarosa.

REFERÊNCIAS BIBLIOGRÁFICAS

Ahl, D.H. (1977. Does Education Want What Technology Can Deliver? Em R.J. Seidel, R.J. & M.L. Rubin (ed.) Computers and Communications: implications for education. New York: Academic Press.
Andrade, P.F. (1993). (org.) Projeto EDUCOM: Realizações e Produtos. Brasília: Ministério da Educação e Organização dos Estados Americanos.
Andrade, P.F. & Lima, M.C.M.A. (1993). Projeto EDUCOM. Brasília: Ministério da Educação e Organização dos Estados Americanos.
Baron, G. & Bruillard, E. (1996). L’Informatique et ses usagers. Paris: PUF.
Calani, M.C. (1981). Conceitos Geométricos Através da Linguagm Logo. Dissertação de Mestrado não publicada. Departamento de Ciência da Computação, IMECC, Unicamp.
Dieuzeide, H. ( 1994). Les Nouvelles Technologies- Outils d’enseignement. Série Pédagogie, Paris: Ed. Natan.
Johnson, D. (1996). Evaluating the Impact of Technology: the less simple answer. http://fromnowon.org/jan96/reply.html.
Levy, P. (1993). As Tecnologias da Inteligência: o futuro do pensamento na era da informática. São Paulo: Editora 34.
Linard, M. (1990). Des Machines et des Hommes. Paris: Éditions Universitaires.

Fonte: www.nied.unicamp.br

Dia da Informática

15 Agosto

A informática é, talvez, a área que mais influenciou o curso do século XX. Se hoje vivemos na Era da Informação, isto se deve ao avanço tecnológico na transmissão de dados e às novas facilidades de comunicação - ambos impensáveis sem a evolução dos computadores.

Existe informática em quase tudo que fazemos e em quase todos os produtos que consumimos. É muito difícil pensar em mudanças sem que em alguma parte do processo a informática não esteja envolvida.

Desde seus primórdios no século XX, quando possuía finalidade exclusivamente científica e militar, a informática já era usada pelos governos, como a Alemanha e os Estados Unidos. Ainda hoje, computadores são utilizados para rastrear e orientar naves e tanques, e também organizar planejamentos estratégicos e armazenar dados militares.

Os governos dos países utilizam a informática no recenseamento, agilizando sua apuração, e também para disponibilizá-la à população.

É o que você pode conferir aqui no IBGE: oferecemos informação pela Internet e por softwares de recuperação de dados.

Os bancos também monitoram contas e cadastros através da informática; pessoas no mundo todo podem conversar em tempo real através de computadores; crianças podem aprender através da informática e já existem até cursos à distância facilitados pelo computador e pela Internet.

Sem os computadores, o homem não teria chegado à Lua; não poderíamos manter os satélites no espaço; não transmitiríamos as notícias tão rápido e com tamanho alcance; demoraríamos horas para conseguirmos certos resultados de cálculos ou determinadas pesquisas; certos aparelhos de hospitais não existiriam e os exames de laboratório não seriam tão precisos. E por aí vai...

ANTIGUIDADE E INFORMÁTICA

A história da informática acompanha o processo de criar e armazenar dados, algo que já é feito desde a Antiguidade.

A palavra vem da junção de dois vocábulos: informação e automática. Logo, a idéia de agilizar a recuperação de informações tem sido trabalhada há muito tempo, com a diferença que agora as mudanças são bem mais rápidas do que antes.

Repare bem: em 3.500 a.C., já havia o mais antigo instrumento de cálculo: o ábaco.

Costuma-se dizer que o ábaco é o embrião da informática. Por quê Porque foi o primeiro dispositivo de computação, mesmo que ainda usando meios mecânicos.

Era composto de varetas ou barras e pequenas bolas, usadas para fazer contas.

Os chineses adaptaram o ábaco e, por volta de 2.500 a.C., nasceu um sistema chamado "Suan-Pan". Eram palitos empilhados que, dependendo da posição, mudavam de valor. Quando dispostos sobre uma tábua, era possível fazer cálculos com as quatro operações básicas.

ÀS VÉSPERAS DO SÉCULO XX

No século XIX, começaram a pipocar inventos com objetivo de "imitar" o pensamento, ou pelo menos suas funções de memória. Obviamente eram muito rudimentares em comparação às máquinas atuais, mas é interessante notar o caminho trilhado pelos cientistas da época.

Eles estavam buscando desenvolver mecanismos automáticos (lembra da Revolução Industrial) e entre eles estava o invento de Jacquard: uma espécie de tear automático, que fazia desenhos de acordo com o comando de algumas placas perfuradas.

O tecelão poderia variar o padrão do tear de acordo com as placas: cada uma dava um comando diferente. Este conceito foi uma das grandes influências ao se conceber o computador. Isto foi em 1801, e cerca de 30 anos depois, em 1834, foi a vez da famosa Máquina Analítica, do inglês Charles Babbage.

Babbage não pôde concluir a Máquina Analítica por falta de recursos, mas sua concepção foi revolucionária.

Trazia os principais conceitos da informática: programas, memória, unidade de controle e periféricos de saída, utilizando também cartões perfurados.

O invento de Babbage inspirou o primeiro computador eletrônico-mecânico, em 1890.

Com ele, o censo americano de 1890 saiu bem mais rápido: antes, levava sete anos para apurar os resultados; com o computador, pôde apurar em seis semanas!

A ÁRVORE GENEALÓGICA DOS COMPUTADORES

Qual o computador de última geração?

As mudanças são tão rápidas que ninguém sabe dizer com certeza. Mas é possível acompanhar a evolução de várias eras de computadores, que a maioria dos estudiosos divide em cinco gerações.

Acompanhe aqui a árvore genealógica da informática:

A primeira geração: funcionando por meio de válvulas a vácuo, compreende o período de 1940 a 1952. As informações eram gravadas em cartões perfurados.

A segunda geração: de 1953 a 1964, a partir de transistores. Com a diminuição do tamanho das máquinas, seu uso se estende à área administrativa e gerencial (antes era restrita ao campo científico e militar).

A terceira geração: é a dos circuitos integrados, que reinaram de 1964 a 1971.

A quarta geração: é a dos microprocessadores, até 1981. Os computadores ficam bem menores e surgem novas linguagens. Nasce a teleinformática (possibilidade de computadores trocarem dados entre si através de rede).

A quinta geração: a partir de 1981, é a vez dos computadores pessoais (PCs) e VLSI, com alta velocidade e interatividade.

O SÉCULO DA INFORMÁTICA

E no século passado, o que aconteceu

O primeiro computador eletromagnético surgiu nos Estados Unidos em 1937. Impulsionado pela guerra (acabara a Primeira Guerra Mundial e em breve despontaria a Segunda), o computador foi criado para calcular trajetórias de projéteis da Marinha, mas só ficou pronto depois que a Segunda Guerra acabou!

Foi também com o final da Segunda Guerra Mundial que nasceu o ENIAC, o pai dos computadores modernos. O sistema binário utilizado nos computadores atuais, contudo, só veio a ser utilizado em 1954, junto com a noção de programação, graças a John Von Newmann.

Mas os computadores da época eram muito limitados. E o pior; ocupavam um espaço enorme! Alguns ocupavam uma sala inteira - e estamos falando de salas grandes! O computador pessoal, que fica sobre uma mesa, ainda era um sonho distante.

Em 1959 surgiu um novo modelo com um espaço dez vezes menor e capacidade cem vezes maior. E isso ainda era muito pouco, comparado com o que temos hoje. O minicomputador ocupava o espaço de um quartinho pequeno. Foi com os micros que tudo mudou.

Fonte: www.velhosamigos.com.br

Dia da Informática

15 de Agosto

O desenvolvimento da tecnologia da computação foi a união de várias áreas do conhecimento humano, dentre as quais: a matemática, a eletrônica digital, a lógica de programação, entre outras.

FATOS HISTÓRICOS

Várias tentativas foram feitas para ajudar o homem a automatizar tarefas repetitivas. O ábaco, instrumento para cálculos usado pelos chineses desde cerca de 1000 a.C. e difundido para outros povos, é o parente mais distante do computador.

CALCULADORA

Na França do século XVII, o filósofo e matemático Blaise Pascal projeta uma calculadora que apenas soma e subtrai.

Ainda no mesmo século, o alemão Gottfried Wilhelm Leibniz, filósofo e um dos formuladores do cálculo integral, incorpora as operações de multiplicar e dividir à máquina. Os dois modelos não saem do papel.

Dia da Informática

PROGRAMAÇÃO

A indústria da tecelagem contribui, no século XVIII, para o avanço do processamento de dados. Para conseguir tecidos mais nobres, Joseph Marie Jacquard constrói um tear automatizado, usando cartões perfurados para controlar os movimentos da máquina.

Com base nessa tecnologia, um século depois o matemático inglês Charles Babbage projeta a Máquina Analítica, destinada a cálculos matemáticos, já com alguma capacidade de programação e de armazenamento das informações.

Ada Augusta Lovelace, filha do poeta Lord Byron, trabalha com Babbage nos cartões perfurados que introduziriam as informações na máquina. O projeto de Babbage não chega a ser construído mas Ada é considerada a primeira programadora da História.

Charles Babbage (1792-1871), nasce em Totnes, Inglaterra. Estuda em Cambridge, onde depois leciona matemática. Por seu trabalho com a máquina analítica é considerado um dos pioneiros dos computadores.

Mais tarde, Babbage e Ada Lovelace tentam estabelecer um sistema para ganhar em corrida de cavalos e perdem muito dinheiro.

LÓGICA BINÁRIA

Os fundamentos lógicos que permitem a criação dos programas são dados por George Boole. Em 1854 publica As leis do pensamento, estabelecendo uma forma de armazenar e processar informações utilizando relações binárias.

Um sistema binário pode representar todos os números, usando apenas os algarismos 1, 2 e as potências de 2, como 4 (ou 2x2), 8 (ou 2x2x2), 16 (ou 2x2x2x2) e assim por diante. Nesse sistema de contagem, o número 13 é representado por 1101, ou seja, 1 bloco de 8, 1 bloco de 4, 0 bloco de 2 e 1 bloco de 1.

George Boole (1815-1864), nasce na Inglaterra, em família sem muitos recursos, e dedica-se ao estudo de latim e grego. Torna-se professor e chega a fundar sua própria escola.

Paralelamente se interessa por matemática, e começa a publicar suas idéias sobre o assunto. É considerado o pai da lógica matemática moderna por introduzir o uso de símbolos matemáticos para expressar processos lógicos de forma que estes possam ser lidos com o mesmo rigor de uma equação algébrica.

TABULADOR ESTATÍSTICO

O americano Herman Hollerith constrói, aplicando as teses de Babbage, um tabulador, usando cartões perfurados, para tornar mais rápido o processamento das estatísticas do censo de 1890 dos EUA.

Seu equipamento, um computador mecânico, vence a concorrência aberta pelo governo. A empresa é bem-sucedida e depois de várias fusões e mudanças de nome se torna, em 1924, a International Business Machines Corp. (IBM).

COMPUTADOR ELÉTRICO

A partir da década de 30 são feitas várias tentativas de substituir as partes mecânicas dos equipamentos por partes elétricas com o uso dos relés. O alto custo, o tamanho imenso e a baixa velocidade de processamento são as desvantagens dessas máquinas. Na Alemanha, Konrad Zuse conclui em 1938 o primeiro modelo Z1, usando a teoria binária.

Nos EUA, o matemático Howard Aiken, obtém apoio da IBM para desenvolver um computador programável, baseado em relés e em fitas perfuradas, mas sem usar o sistema binário de numeração. Em 1941 ele apresenta o Mark I, que mede 15 m x 2,5 m. É a primeira máquina capaz de efetuar cálculos complexos sem intermediação humana.

COMPUTADOR DE PRIMEIRA GERAÇÃO

A substituição dos relés por válvulas permite a criação da primeira geração de computador moderno. Na Inglaterra, em 1943, o matemático Alan Turing constrói o Colossus, um computador para missões de guerra que usava válvulas.

Em 1945, nos EUA, um grupo termina a construção do Eniac (Eletronic Numerical Integrator and Computer), com a ajuda dos pesquisadores John Mauchly e J. Presper Eckert.

O Eniac é duas vezes maior que o Mark I e mil vezes mais rápido.

Na mesma época, John Von Neumann estabelece a arquitetura básica de um computador, empregada até hoje: memória, unidade central de processamento, dispositivos de entrada e saída dos dados. Chegam ao mercado os primeiros modelos de computador.

COMPUTADOR DE SEGUNDA GERAÇÃO

Em 1947 cientistas dos Laboratórios Bell, ligados à American Telephone & Telegraph (AT&T), criam o transistor, que faz as mesmas funções das válvulas a um custo bem menor.

Mas só no final da década de 50 é que chegam ao mercado os primeiros modelos totalmente transistorizados, bem menores do que os movidos a válvula e com preço acessível para as empresas privadas.

COMPUTADOR DE TERCEIRA GERAÇÃO

Em 1958 a Texas Instruments anuncia os resultados de uma pesquisa que revoluciona o mundo: o circuito integrado. Esses circuitos são um conjunto de transistores, resistores e capacitores construído sobre uma base de silício (um material semicondutor), chamado de chip. Com ele, avança a miniaturização dos equipamentos eletrônicos.

A IBM é a primeira a lançar modelos com a nova tecnologia em meados da década de 60.

COMPUTADOR DE QUARTA GERAÇÃO

Já no final dos anos 60, a Intel inaugura uma nova fase. Projeta o microprocessador, um dispositivo que reúne num mesmo circuito integrado todas as funções do processador central. É a base para os microcomputadores. Os microprocessadores são muito pequenos – o PowerPC, por exemplo, tem apenas 1,2 cm².

MICROCOMPUTADORES

O primeiro modelo é o Altair, baseado no microprocessador 8080 da Intel, vendido na forma de kit para aficionados da eletrônica. Em 1974 o então estudante da Universidade de Harvard, Bill Gates, junto com o colega Paul Allen, desenvolve o sistema operacional do Altair. Um ano depois os dois fundam a Microsoft, hoje a maior companhia de software do mundo. Bill Gates (William Henry Gates III) (1955- ) nasce em Seattle, EUA.

Estuda em boas escolas e desde os 12 anos é apaixonado por computadores. Desenvolve softwares junto com o colega Paul Allen a partir de 1967. Começa a universidade em Harvard.

A partir da criação do sistema operacional do Altair dedica-se à informática, abandonando a universidade. Convence outras companhias, além da IBM, a utilizarem o sistema operacional MS-DOS, da Microsoft, em seus microcomputadores. Isso permite que um mesmo programa funcione nos micros de diversos fabricantes.

É um dos homens mais ricos dos EUA e já afirmou que pretende distribuir 95% da sua fortuna. Computador pessoal – Em 1976 é a vez do Apple I, o primeiro computador pessoal, criado numa garagem pelos americanos Steve Jobs e Steve Wozniac e que revoluciona o mercado.

A resposta da IBM vem cinco anos depois, quando lança seu PC (personal computer) e contrata a Microsoft para desenvolver o sistema operacional, o MS-DOS. Sua arquitetura aberta ou seja, um sistema que podia ser licenciado por outros fabricantes determina um padrão para o mercado. Em 1983 a IBM lança o PC XT, baseado no microprocessador 8088 e com disco rígido.

A arquitetura é copiada em todo o mundo e os micros tipo PC passam a ser conhecidos pelo modelo do microprocessador que utilizam 286, 386SX, 386DX, 486SX, 486DX e que são cada vez mais potentes.

A Intel interrompe essa série, em 1993, ao lançar o Pentium. Macintosh – Em 1984 a Apple apresenta sua resposta ao PC, o Macintosh, revolucionário na utilização do ícone símbolo gráfico que indica um comando e do mouse, que substitui muitas das funções do teclado. Esses recursos facilitam o uso dos micros por quem não domina a linguagem tradicional da informática. O sistema operacional equivalente da Microsoft para PC, o Windows, chega ao mercado um ano depois.

Fonte: www.meucanto.sitedaescola.com

Dia da Informática

15 de Agosto

DA VÁLVULA AO TRANSISTOR OS PRIMEIROS COMPUTADORES MODERNOS

Desde 1847 o matemático inglês George Boole (1815-­1864) desenvolve os raciocínios lógico-matemáticos condicionais que levam o seu nome (Álgebra Booleana).

As primeiras décadas do nosso século, em particular os anos que se seguem à 1ª Guerra Mundial, encontram o mundo amadurecido, técnica e teoricamente, para a construção dos modernos computadores: o dinamarquês Valdemar Poulsen (1869-1942) efetua os primeiros registros magnéticos de dados em um fio de arame (1900), abrindo caminho para a memória magnética; o norte-americano Lee De Forest inventa a válvula (1906), artefato que consiste basicamente num interruptor eletrônico; Claude Shannon demonstra (1938) que conjuntos de interruptores eletrônicos (válvulas) podem realizar operações lógicas, abrindo caminho para os Circuitos Eletrônicos. Mas só com o advento da 2ª Guerra Mundial é que as nações em conflito mobilizam os enormes recursos necessários para construir aparelhos de computação.

Na Alemanha, em Berlim, Conrad Zuze (1910-?), engenheiro aeronáutico, dedica-se a partir de 1936, a um projeto que chama de Z-1. Construído à noite, com a ajuda de amigos na casa onde mora com os pais, o Z1 efetua as quatro operações aritméticas, calcula raízes quadradas e converte números decimais em notação binária e vice­versa.

Desconhecendo os fundamentos de Babbage, Zuze chega a muitas conclusões semelhantes, redescobrindo os princípios da álgebra booleana também. Fixa-se na idéia de Leibniz, de representar os dados e as instruções em forma binária. Uma máquina puramente mecânica não lhe é satisfatória e Zuze considera a hipótese de uma máquina completamente eletrônica, embora a guerra não lhe permita obter os componentes necessários, e em 1941 termina um computador eletromecânico, o Z2.

O governo alemão, engajado no esforço de guerra, não demonstra interesse inicial pelo invento, mas posteriormente fornece recursos para desenvolver o Z3, um computador elétrico, com relés em lugar das juntas mecânicas utilizadas nos modelos anteriores, e um desenho mais compacto e elegante.

Apesar dos bombardeios aliados, que o obrigam a mudar o local da oficina diversas vezes, e do exército alemão que o convoca para o front por dois períodos, o protótipo do Z3 é concluído.

O racionamento de materiais durante a guerra impõe a improvisação de componentes a partir de peças usadas de telefones, e as instruções são alimentadas por velhas películas cinematográficas de 35mm, perfuradas com um código de oito furos por quadro. O Z3 armazena 64 palavras de 22 bits cada. A informação é introduzida por um teclado, e os resultados exibidos num painel de lâmpadas.

Todos os protótipos de Zuze são destruídos quando do bombardeio de Berlim na ofensiva final aliada em 1945, mas sabe-se que um dos seus modelos, adaptado, auxiliou os cálculos do projeto da bomba voadora alemã HS-293. O Z4, ultimo computador de Zuze no período de guerra, aumenta o tamanho das palavras para 32 bits. Levada para Gottingen quando os aliados marcham sobre Berlim, a máquina acaba em Basileia, na Suíça, onde opera até 1954. Sem conseguir fabricar computadores na Alemanha ocupada, Zuze concentra-se na teoria, desenvolvendo a linguagem "Plankalkul".

Ao conseguir novamente fabricá-los, monta a Zuze Company, a maior fabricante de computadores alemã até 1969, quando é incorporada pela Siemens.

Para os E.U.A. as informações são mais abundantes e contraditórias: ao que tudo indica, os dois projetos iniciais são militares.

O projeto do exército nasce em 1943 quando um coronel propõe a construção de uma máquina para cálculos balísticos.

Esse "Computador Balístico" é construído por George Stibitz (que em 1938 apresentara trabalho sobre máquinas acionadas por relês): o programa é gravado em fita e ela efetua as quatro operações.

Ao mesmo tempo, a Marinha desenvolve um projeto próprio, secreto, de computação: de 1937 a 1943, na Universidade de Harvard, constrói um computador que permanece como segredo militar até ser dado a conhecer ao público em 1944, quando é doado à Universidade: o Harvard Mark I. Entra em funcionamento em 1943, mas apesar de ser um sucesso, estava obsoleto assim que ficou pronto, levando à construção de um modelo mais aperfeiçoado.

Esse modelo seria o de uma idéia de Howard Hathaway Aiken (1900-?) em 1937, para construir uma máquina de Babbage usando equipamento de tabulação adaptado.

Convencendo a IBM a entrar na construção (1939), o êxito de um primeiro protótipo, embora mecânico, anima a IBM a investir num modelo aperfeiçoado, com relês eletromecânicos: o Harvard Mark II, de 1945.

É com ele que surge o termo "bug", que utilizamos até hoje para designar qualquer erro de programa. Quem usa a expressão pela primeira vez é Grace Murray Hopper, matemática colaboradora de Aiken, referindo-se a uma traça que acidentalmente pousando numa válvula, queimou-a, paralisando a operação do equipamento.

Até 1944, as instruções dirigidas ao computador eram armazenadas externamente à máquina (fitas perfuradas, cartões perfurados, ou pluges e fios). Em 1945, John von Neumann (1903-1957, apresenta o conceito de programação interna, armazenamento codificado de instruções na memória do computador. A idéia é posta em pratica no EDVAC - "Electronic Discrete Variable Computer", construído pela Universidade da Pensilvânia (1946) com os engenheiros John W. Mauchly e John Prosper Eckert.

Este é o primeiro computador a trabalhar com números em base binária, e também com palavras, chegando a colocar uma lista de nomes em ordem alfabética.

A mesma Universidade da Pensilvânia apresenta em 1946, uma máquina onde os relês eletromecânicos são substituídos por válvulas eletrônicas.

É o ENIAC - "Electronic Numerical Integrator and Computer", primeiro computador eletrônico programável. Nele trabalham, além de Mauchly e Eckert, nomes como Alan Turing e John von Neumann. As estatísticas do projeto também estão em qualquer apostila. A máquina funcionou até 1952, quando é aposentada devido aos altos custos de manutenção e complexidade de operação.

Na Inglaterra, Alan Turing (1912-1954) retoma as idéias de Babbage e na tentativa de demonstrar se seria possível uma máquina que resolvesse quaisquer problemas matemáticos, num trabalho chamado "On Computable Numbers" (1936) aprofunda os fundamentos teóricos lógicos para os computadores, entre os quais o princípio da programação: a máquina deveria receber uma série de instruções numa fita continua, dividida em unidades, lendo a instrução de uma unidade, processando­a e passando à unidade seguinte.

Suas teorias são postas em prática na Escola de Códigos e Cifras, incumbida de decifrar os códigos "Enigma" alemães: em 1943, sob sua orientação, é construído o "Colossus", um computador eletro-mecânico para esse fim. Vencida a Guerra, no período de 1949 a 1951 é desenvolvido o ACE - "Automatic Computing Engine", no National Physical Laboratory, projetado pelo mesmo Turing para uso genérico, que colaborará ainda no projeto do Ferranti Mark I da Universidade de Manchester.

No período do pós-guerra, enquanto nos E.U.A. a universidade da Pensilvânia desenvolve o EDVAC, a de Cambridge trabalha no EDSAC e na Inglaterra prossegue o projeto do ACE, uma técnica liga todos: o recurso a tubos de mercúrio para armazenamento de memória.

Na Inglaterra, a Universidade de Manchester, opta por utilizar tubos de raios catódicos para esse fim, com êxito em fins de 1948, o que conduz ao projeto do Manchester Mark I.

Uma empresa local, a Ferranti, oferece apoio, e produz uma versão comercial (Ferranti Mark I), que chega ao mercado em fevereiro de 1951, cinco meses antes do UNIVAC norte-americano.

Em 195O, Mauchly e Eckert estão trabalhando numa máquina chamada BINAC, e montam o próprio negócio para fabricar uma versão comercial do ENIAC: a Eckert & Mauchly Computer Corporation.

Convidada a fazer parte da equipe, Grace Hooper desenvolve programas de uso comercial para a máquina. É ela quem cria a primeira linguagem de programação, junto com o compilador necessário para traduzi-lo em linguagem de máquina, o A­O. O projeto da empresa é chamado UNIVAC - "Universal Accounting Machine" segundo umas fontes, ou "Universal Automatic Computer", segundo outras.

As válvulas eletrônicas, que o compõem, permitem que tarefas que até então consumiam um ano, demorem apenas um dia, e é o primeiro a utilizar fitas magnéticas para alimentação e armazenamento de dados. A companhia de ambos é adquirida no ano seguinte pela Remington Rand, que no mesmo ano, tem a primeira unidade comprada pelo US Census Bureau.

Em 1954 é vendida a primeira unidade a um cliente particular: a General Electric.

É partir da década de 50, que empresas como a Burroughs, NCR e outras iniciam a produção de computadores e sistemas, entrando nesse mercado em bases competitivas.

A IBM já havia se apoderado do mercado com o seu IBM 650, e em 1953 chegam ao mercado os primeiros computadores para cálculos científicos, a linha IBM 701. Apesar de inventado em 1947 nos laboratórios da Bell Telephone norte-americana (William Shockley, Walter Brattain e John Bardeen ganham o Prêmio Nobel de Física de 1956 pela descoberta), o transistor apenas está disponível comercialmente a partir de 1954. Em 1959 é introduzido o IBM 1401.

Fonte: www.cobit.xpg.com.br

Dia da Informática

15 de Agosto

UMA BREVE HISTÓRIA DA INFORMÁTICA

Há quem goste de remontar a história dos computadores e do processamento de dados à pré-história, ligando-a a marcas em ossos ou pedras. Há quem o faça à Antiguidade, com os ábacos sumérios, chineses ou romanos.

É fato que aprendemos a contar nos dedos, e que os primeiros ábacos têm cerca de 5.000 anos: os mais primitivos, simples placas de argila, madeira ou pedra, com sulcos onde pequenos seixos são deslizados, e os mais conhecidos, os de contas em armações de varetas.

O termo vem do grego "ábakos", com o significado de tábua, prancha; as demais expressões vêm do latim: dígito de "digitus" (dedo), cálculo de "calculus" (pedrinha, seixo), de onde por sua vez derivam calcular e calculadora; computar, de "computare", justaposição de "cum" (com) e "putare" (contar); contar, por fim, é a ação de utilizar "contas".

Essa pequena incursão à origem das nossas atuais palavras, demonstra cabalmente serem esses os instrumentos mais antigos que a nossa cultura conheceu para essa função.

O importante é fixar que, desde os primórdios aos nossos dias, a história do processamento de dados, e a do próprio cálculo, ligam-se cada vez mais intimamente à evolução da vida econômica e do pensamento lógico do Homem.

A complexidade da civilização agrícola e urbana exigiu o aperfeiçoamento do cálculo em geral, e cada cultura encontrou soluções próprias: os orientais até hoje recorrem ao ábaco, que permite operações velozes e confiáveis; os sumérios e egípcio: desenvolveram sistemas de contagem calendários, e os rudimentos da geometria (além da escrita para registrá-los); os grego; afamaram-se na geometria, os romanos na engenharia; os hindus inventaram o zero trazido por árabes para o ocidente cristão medieval.

Na América pré-Colombiana desenvolveram-se matemáticas complexas ligadas às observações celestes, das quais mesmo hoje, pouco conhecemos.

DA TEORIA À PRATICA

Na Europa pré-Renascentista, as necessidades da burguesia e do capitalismo mercantil desenvolvem uma economia monetária e os rudimentos da Contabilidade.

O aumento das receitas (e das despesas) exige novos e aperfeiçoados meios de cálculo e de controle, multiplicando as Universidades, impulsionando pesquisa e a ciência.

O sucesso desse fórmula é atestado pela passagem do capitalismo mercantil para o pré-industrial que redobra as exigências do cálculo, e prepara a fundamentação teórica que leva às máquinas de calcular. Aqui começam normalmente as cronologias das apostilas; John Napier (1550-1617, matemático escocês, inventa os Logaritmos (1614), recurso lógico que reduz a divisão à subtração e a multiplicação à adição, e os chamados "Ossos de Napier" - tabelas de multiplicação gravadas em cilindros rotativos de madeira.

Devido à complexidade de cálculo dos logaritmos, o seu colega inglês William Oughtred (1574-1660) representa-os, para esse fim, em uma escala de madeira: a primeira régua de cálculo de que se tem notícia, e que alguns consideram como o primeiro computador analógico da História.

A primeira máquina de calcular de que se tem notícia é a do astrônomo alemão Wilhelm Schickard (1592­1635). Pouco se sabe desse aparelho, além de que fazia as quatro operações, e se perdeu durante a Guerra dos Trinta Anos (1618-1648).

O próprio inventor, morto de peste, não pode defender a sua primazia pelo invento.

Por isso, atribui-se ao matemático e filósofo francês Blaise Pascal (1623-1662) a invenção da primeira máquina ("Pascaline", 1642), um mecanismo com capacidade para oito dígitos, efetuando apenas a adição e a subtração, construída para auxiliar o pai, um coletor de impostos.

Gottfried Wilhelm Leibniz(1646-1716), alemão, aperfeiçoa esse invento, introduzindo o chamado "Cilindro de Leibniz". Projeta ainda (1671), uma máquina que efetua as quatro operações, e que, segundo uns teria sido apresentada à Royal Society inglesa (1673), segundo outros, teria sido concluída (1694) mas apresentando problemas técnicos. Todas estas máquinas operavam em bases decimais.

Calculadoras mecânicas surgem posteriormente, embora aparelhos práticos e confiáveis só estejam disponíveis na segunda metade do século XIX: William S. Burroughs inicia a produção de máquinas de somar (1866), fundando a companhia com o seu nome; comuns no início do nosso século, permanecem difundidas até serem suplantadas pelas calculadoras eletrônicas no começo da década de 70.

A Revolução Industrial traz as bases da economia de escala, e o séc. XVIII convive com vários dispositivos e máquinas para calcular, analógicos para grandezas (réguas de cálculo, relógios, contadores e medidores em geral), e digitais para valores, representados por algarismos, letras ou qualquer outro símbolo (ábacos, calculadores).

O princípio dos maquinismos é idêntico: o usuário alimenta os números girando uma série de botões ou rodas, acionando manualmente uma alavanca ou outra roda para efetuar a operação desejada.

Esses aparelhos constituíam-se em curiosidades mecânicas, sem aplicação prática, pois o recurso a um calculista hábil era sempre mais prático e veloz. Entretanto mesmo o operador mais hábil e destro comete erros no processamento de operações longas e/ou monótonas e repetitivas.

E isso se aplicava aos operários nas linhas de produção das maiores fábricas da época: a indústria de tecidos. Em 1799, numa França que sob Napoleão pretende suplantar o poderio da indústria inglesa, o inventor Joseph-Marie Jacquard (1752-1834) constrói um tear mecânico que reproduz infinitamente padrões coloridos nos tecidos, segundo instruções fornecidas por fileiras de cartões perfurados "lidos" por um sistema de pinos.

Os cartões de Jacquard são o exemplo clássico de um algoritmo -especificação da sequência ordenada de passos, que deve ser seguida para a realização de uma tarefa, garantindo a sua repetibilidade.

O sistema é tão prático e perfeito que milhares de tecelões desempregados se revoltam, sabotam as máquinas (do francês "sabot" -tamanco- calçado de madeira utilizado pelos operários para paralisar as engrenagens), e alguns chegam mesmo a tentar matar Jacquard, pioneiro involuntário do desemprego industriai em massa.

Napoleão é derrotado em 1815, mas a idéia de Jacquard não, e será aproveitada justamente por um inglês - Charles Babbage (1792-1871), membro da Royal Society, professor de matemática em Cambridge, onde ocupa a mesma cadeira que pertencera a Isaac Newton.

As tabelas numéricas do Séc. XIX estão cheias de erros, e mesmo que houvessem sido calculadas corretamente, as sucessivas reimpressões perpetuam­nos e acrescentam outros, novos. Inventor prolífico, de personalidade ao mesmo tempo excêntrica e genial, Babbage tem a idéia (1811) de construir uma máquina que não apenas calcule, mas também automaticamente imprima as entradas desse tipo de tabelas.

Chamou-a de "Difference Engine" por calcular o que em matemática são chamadas Equações Diferenciais, apresenta em 1822 à Royal Society um protótipo que usa 8 posições decimais, e obtém um crédito do governo inglês (1823) para construí-la.

Dificuldades levam-no a abandoná-la, entre outros motivos, porque os cartões perfurados de Jacquard sugerem a Babbage uma idéia muito melhor: um aparelho capaz de efetuar quaisquer cálculos de acordo com as instruções de cartões perfurados.

A partir de 1834, passará as quatro ultimas décadas de sua vida no projeto do que chama "Analytical Engine", composto de quatro partes ou módulos, interligadas:

a) Computação: adição, subtração, multiplicação, divisão e uma operação decisória elementar

b) Memória: um banco de mil "registradores" cada um com capacidade para 50 dígitos

c) Alimentação: controle/entrada de dados/instruções por cartões perfurados

d) Saída: relatório impresso automaticamente.

Se essa máquina houvesse sido completada, o Séc. XIX teria conhecido o primeiro computador moderno: um dispositivo com memória, controlado por um programa, utilizado para processar dados.

É o programa, conjunto ordenado de instruções que determina ao dispositivo o que, como, onde e quando fazer que o torna diferente de uma calculadora.

O governo inglês, sem retorno prático na primeira máquina de Babbage, não se dispôs a repetir o erro com a segunda, que jamais teve um protótipo, de qualquer maneira de construção impossível com a tecnologia e os materiais da época. Apesar disso, um programa de demonstração é escrito (1835) para sua operação, por Lady Lovelace (Ada Augusta Byron, Condessa de Lovelace, única filha legítima do poeta Lorde Byron). Ada, que além da educação formal em idiomas e música, era excelente matemática, com este programa calcularia séries matemáticas de números.

É a ela - a primeira programadora - que devemos o estabelecimento de importantes funções em programação:

Sub-rotinas

Sequências de instruções que podem ser utilizadas várias vezes em diversos contextos;

Loops

Instruções que retomam a leitura/execução de uma instrução específica, de modo que ela possa ser repetida;

Salto Condicional

Instrução cuja satisfação de uma condição permite ou não o "salto" para outra instrução;

O processamento de dados propriamente dito, inicia­se nos E.U.A. em 1886, quando o estatístico Hermann Hollerith, (1860-1929) funcionário do National Census Office, observa que o processamento manual dos dados do censo de 1880, demora cerca de 7 anos e meio para ser concluído.

Raciocinando que o censo seguinte, de 1890, não estaria totalmente apurado antes do ano de 1900 devido ao aumento da população, dedica-se à construção de uma máquina para tabular esses dados. No censo de 1890, 300 de suas máquinas, baseadas nos princípios de Babbage e empregando cartões perfurados, diminuem a demora do processamento de cerca de 55 milhões de habitantes para cerca de 2 anos.

O sucesso da máquina leva Hollerith a fundar a própria companhia (1896) para fabricá-la e comercializá-la: a Tabulating Machine Company. Através de uma política comercial agressiva, incorporando três outras empresas, suas máquinas serão vendidas para os Departamentos de Censo de governos de todo o mundo, e mais tarde para companhias particulares de porte.

Em 1924 o nome da Companhia é alterado para IBM - Industrial Business Machines, pioneira no emprego da eletricidade para a perfuração/leitura de cartões. A tecnologia de cartões perfurados só será superada nos anos 60 deste século.

Fonte: br.tripod.com

Dia da Informática

15 de Agosto

Informática é o termo usado para se descrever o conjunto das ciências da informação, estando incluídas neste grupo: a ciência da computação, a teoria da informação, o processo de cálculo, a análise numérica e os métodos teóricos da representação dos conhecimentos e de modelagem dos problemas.

O termo informática, sendo dicionarizado com o mesmo significado amplo nos dois lados do Atlântico , assume em Portugal o sentido sinônimo de ciência da computação enquanto que no Brasil é habitualmente usado para referir especificamente o processo de tratamento da informação por meio de máquinas eletrônicas definidas como computadores.

O estudo da informação começou na matemática quando nomes como Alan Turing, Kurt Gödel e Alonzo Church, começaram a estudar que tipos de problemas poderiam ser resolvidos, ou computados, por elementos humanos que seguissem uma série de instruções simples de forma, independente do tempo requerido para isso.

A motivação por trás destas pesquisas era o avanço durante a revolução industrial e da promessa que máquinas poderiam futuramente conseguir resolver os mesmos problemas de forma mais rápida e mais eficaz. Do mesmo jeito que as indústrias manuseiam matéria-prima para transformá-la em um produto final, os algoritmos foram desenhados para que um dia uma máquina pudesse tratar informações. Assim nasceu a informática.
Índice

Conceito da palavra "Informática"

A palavra Informática é derivada de duas outras palavras associadas a ela, a primeira é informação e a segunda é automática. Essas palavras definem os principais objetivos que foram atingidos pelos computadores, a necessidade de se obter e fazer o tratamento da informação de forma automática, fez com que surgisse justamente esta palavra.

O meio mais comum da utilização de informática são os computadores, que tratam informações de maneira automática. Informática é a informação automática de Origem da palavra informática

Em 1957, o cientista da computação alemão Karl Steinbuch publicou um jornal chamado Informatik: Automatische Informationsverarbeitung ("Informática: processamento de informação").

A palavra portuguesa é derivada do francês informatique, vocábulo criado por Philippe Dreyfus, em 1962, a partir do radical do verbo francês informer, por analogia com mathématique, électronique, etc.

Em português, a palavra informática é formada pela junção das palavras informação + automática. Pode dizer-se que informática é a ciência que estuda o processamento automático da informação por meio do computador.

Há uma linha de pensamento que conduz o termo "informática" à junção dos conceitos "informação" e "matemática". A computação seria o meio tecnológico que possibilitou unir insumos informacionais com as ciências matemáticas.

Fonte: www.spqr.net.br

Dia da Informática

15 de Agosto

A ERA DO "CHIP" E O ADVENTO DO MICROCOMPUTADOR

Altair 8800 Em 1958 Jack Kilby (Texas Instruments) descobre como reunir todos os componentes de um circuito eletrônico numa única pastilha de silício.

Nasce o circuito Integrado: um "chip" de cinco peças fundidas numa única barra de 1,5 cm2.

Com poucos meses de diferença, Robert Noyce (Fairchild Semiconductors) tem a mesma idéia, e na década de 60 ambos repartem as honras da invenção. O local onde funciona a Fairchild -Silicon Valley-, uma região agrícola ao sul da Baia de São Francisco na Califórnia, é invadido por gigantes da microeletrônica. De lá sairão os primeiros computadores de pequeno porte, como o PDP 1, da Digital Equipment Corp., em Palo Alto.

Dia da Informática

A partir de 1962 os ingleses tentam recuperar a liderança no setor, perdida desde a década de 50 para os norte-americanos. Com a tecnologia do transistor, o ATLAS, da Universidade de Manchester, utiliza um formato de palavra de 48 bits com endereço único, memória principal de 16 Kb e ROM de 8Kb.

Discos magnéticos são utilizados pela primeira vez, e o ATLAS mantém por anos a reputação de o mais avançado da época.

A corrida tecnológica dos laboratórios atinge as fábricas: a partir de 1963 inicia-se a produção comercial dos Circuitos Integrados, e já em 1964 a IBM apresenta o System/360, primeira família neles baseada. Em 1965 a DEC apresenta um minicomputador, o PDP-8, abrindo caminho para as mini-plataformas.

Em 1969 a IBM "abre" a arquitetura de seus hardware e software, permitindo uma revolução de software e mais tarde de hardware.

A década de 70 traz a tecnologia LSI - "Large Scale Integration", que concentra milhares de transistores em uma única pastilha de silício.

Rapidamente passam a ser dezenas, e logo centenas de milhares (tecnologia VLSI - "Very Large Scale lntegration"), o que se refletirá, inclusive, na arquitetura das máquinas.

Produzidos em escala industrial, com qualidade e baixo custo, são incorporados a outros equipamentos, ampliando os benefícios do controle computadorizado: máquinas de lavar, fomos de microondas, televisores, som, vídeo e automóveis, numa revolução micro-eletrônica.

Dia da Informática

A partir desse momento, a CPU (Unidade Central de Processamento) -parte mais importante de um computador- passa a estar contida num único "chip", o microprocessador. O primeiro é o INTEL 4004, lançado comercialmente em 1971.

A Intel (Integrated Electronics) Corporation, fundada em 1968 por Gordon Moore e Robert Noyce, com o projeto de um tipo de "chip" de memória regravável, 100 vezes mais caro do que a utilizada à época, no primeiro ano de vida, dá um lucro de apenas US$ 2,672.

O INTEL 4004 com capacidade para 4 bits, manipulados em blocos de 4 dígitos binários, só pode usar pequenas quantidades de memória, o suficiente para pequenos programas de controle, e destina-se a calculadoras, caixas registradores e similares.

Em 1972, é apresentado o microprocessador INTEL 8008, de 8 bits, com maior capacidade, e alguns hobbistas de eletrônica começam a pensarem construir os próprios computadores baseando-se no novo "chip". Uma versão melhorada é apresentada em 1974, o INTEL 8080, que mudará o mundo...

Com blocos de dados de 8 bits, manipula até 64 Kb de memória para programas maiores.

A esta altura, outros fabricantes começam a concorrer com a INTEL: o "chip" 6800 da MOTOROLA era semelhante ao 8080 em termos de hardware, mas utiliza instruções diferentes para operar, iniciando-se os problemas de compatibilidade de software entre máquinas.

Em 1974 a IBM lança a tecnologia RISO - "Reduced Instruction Set Computer", como alternativa à CISO - "Compact instrution Set Computer" até então vigente. A tecnologia RISO constitui-se de um conjunto de instruções reduzidas, o que toma o acesso à memória e às operações mais rápidos. Os "chips" RISO são utilizados em estações de trabalho ("workstations"), acelerando trabalhos gráficos e operações cientificas que exigem grandes cálculos.

A edição de julho de 1974 da revista norte-americana Radio Electronics, publica um artigo acerca de um computador caseiro baseado no microprocessador INTEL 8008.

Mais de dez mil leitores adquiriram os esquemas de construção detalhados, embora devido à complexidade do projeto e à dificuldade de obtenção dos componentes necessários, não se possa quantificar os que chegaram efetivamente a montá-los.

A edição de janeiro de 1975 da revista Popular Eletronics apresenta o ALTAIR 8800, um microcomputador também baseado no Intel 8008, assim batizada devido a um episódio da série televisiva "Star Trek".

Um kit completo para a montagem do ALTAIR é oferecido por US$ 397 (trinta a mais que o custo do microprocessador), mais despesas de correio, por uma empresa de Albuquerque, no Novo México, a MITS - "Micro Instrumentation Technology Systens". Seu dono, Edward Roberts, engenheiro aposentado da USAF, tenta com isso salvar a empresa, ameaçada de falência após o fracasso do lançamento de uma calculadora eletrônica.

Pega um empréstimo bancário de US$ 65,000, comprometendo­se a vender 500 kits em um ano, mas a resposta dos leitores é avassaladora, inundando a MITS com ligações telefônicas, e em apenas um mês essa quantidade é alcançada. No ano de 1975 a empresa vende um milhão de dólares, três milhões no ano seguinte, atingindo em 1977 o faturamento recorde de US$ 20 milhões.

O sucesso da MITS incentiva dezenas de outras companhias a produzir os próprios modelos.

A MicroSoft Corporation nasce quando dois estudantes de Harvard, William Henry Gates III (Bill Gates) e Paul Allen, constituem uma sociedade para desenvolver software.

O primeiro produto é um interpretador BASIC (desenvolvido num DEC PDP-10), vendido para a MITS, fabricante do Altair, e que passa a fazer parte do "kit" do micro.

Entretanto, o grande impulso para a popularização dos micros vem da fundação da APPLE, em 1976. Dois jovens engenheiros - Steven Jobs e Steve Wozniak - com 21 e 26 anos respectivamente, vendem todo o patrimôniopessoal (uma calculadora eletrônica e uma kombi), e com o capital assim obtido, e uma garagem emprestada por parentes, desenvolvem o APPLE I - o microcomputador mais simples até então construído, com memória, UCP, entrada e saída montados numa única placa de circuitos.

O microprocessador é o Mostec 6502 de 8 bits. Esse primeiro projeto (ironicamente rejeitado pela Hewlett Packard) vende, de imediato, 50 unidades. Animada, a dupla apresenta a placa no Homebrew Computer Club, um grupo de hobbistas em São Francisco/Califórnia, que recebe a idéia calorosamente, incentivando a dupla a fundar a APPLE Computer Company (mais tarde APPLE Inc.). Sinclair ZX80

No mesmo ano, na Inglaterra, Clive Sinclair lança o ZX 80, baseado no "chip" Zilog Z80, de 8 bits, o computador pessoal mais barato do mercado (menos de US$ 150), graças à racionalização do projeto, com a metade dos componentes utilizados nos concorrentes. Além do baixo preço, o sucesso da máquina deve-se ainda ao poderoso BASIC nela instalado.

O modelo vende 50.000 unidades em poucos meses, estimulando o lançamento do ZX81, ainda menor e mais avançado (apenas 4 chips). Este, vende mais de um milhão de unidades em apenas dois anos, devolvendo a Inglaterra ao páreo da corrida tecnológica. O Sinclair Spectrum (1982) será o responsável pela introdução da cor nos micros da família Z80.

No ano seguinte ao lançamento, a placa em que se constituía o APPLE I recebe um microprocessador Rockwell 6507 (também de 8 bits, da família do Mostec 6502), uma caixa com teclado e um monitor: está lançado o "desktop" APPLE II, o primeiro a ser aceite por usuários comerciais. Isso se deve, além do BASIC incluído, a um programa simples, uma planilha de cálculo chamada VisiCalc. É o primeiro micro a ter unidade de disco flexível, uma prática adaptação para 5 1/4" do disco flexível de 8".

Também em 1977, a canadense Commodore Business Machines lança o PET 2001 ("Personal Electronic Transactor"), baseado no mesmo Mostec 6502. Seguir-se-ão os lançamentos do VIC-2O (1981), com um milhão de unidades vendidas, do famoso C-64 de 8 bits, também baseado no 6502 e com capacidade para processar som, e do C-128, que jamais obteve a mesma repercussão.

O estrondoso sucesso de vendas do APPLE leva a Tandy Corporation a entrar no ramo, lançando através de sua rede de lojas - a Radio Shack - o TRS-80 Model I ("Tandy Radio Shack"), o Model II e finalmente o TRS-80 Model III, todos com base no "chip" Z80 de 8 bits.

Aproveitando essa tecnologia, entra ao mesmo tempo no universo dos videogames com o TandyVision.

Em 1978 a INTEL anuncia o chip 8088, de 16 bits como o 8086, mas com um projeto mais simples, e capacidade de processamento semelhante ao "mainframe" IBM 360/50.

O micro doméstico, neste momento já é uma realidade: o mercado está ávido pelo produto a um custo razoável, e as empresas esforçam-se para atender a demanda. De apenas CPUs com microprocessadores de 8 bits, memória de até 240 Kb, ligados a aparelhos domésticos de televisão, os dados armazenados em fitas K7, a sua capacidade aumenta e o emprego de disquetes de 5 1/ 4" difunde-se.

Paralelamente à indústria de hardware, desenvolve-se a de periféricos, e, rapidamente, a de software, para atender a demanda crescente de utilitários e de jogos. A partir de 1980 os microcomputadores tomam-se acessíveis ao grande público, a preços cada vez menores, e é significativo que em 1982 a revista norte-americana TIME eleja o micro como "Homem do Ano".

Com atraso em relação aos concorrentes, a IBM entra no mercado de computadores pessoais lançando em 12/ 08/81 o seu IBM-PC ("Personal Computer"), baseado num processador INTEL 8088, de 16 bits.

O sistema operacional que escolhe como padrão é o da MicroSoft, o DOS 1.0. A entrada da "Big Blue" nesse segmento consolida definitivamente a importância do microcomputador. Apoiada nos seus poderoso marketing, tradição, e na sua capacidade industrial e de vendas, o PC transformou-se na máquina profissional por excelência, abrindo as portas de um mercado milionário...

Por ironia, aparentemente, a própria IBM, acorrentada aos velhos tempos, em que o tamanho do computador era documento, não se deu conta de que o PC representava uma revolução. A concorrência sim, e rapidamente entra em campo para fabricar os chamados PC-compatíveis (a IBM abrira sua arquitetura desde 1969), que em poucos anos abocanham 84% de um mercado que pertencera quase que 100% à IBM. A INTEL introduz em 1982 o chip 80286, trás vezes mais veloz que o 8088, e que executa várias tarefas ao mesmo tempo, base dos computadores 286.

Para fazer frente ao sucesso do IBM-PC, a APPLE lança o MACINTOSH (1983), o primeiro computador pessoal com interface gráfica, outra revolução: um micro ainda mais fácil de ser utilizado por um leigo.

Dia da Informática

Além de possibilitar o uso de cor, gráficos e fórmulas, traz uma novidade para permitir a utilização do interface gráfico: um periférico chamado "mouse", que simplifica a utilização de ícones e menus suspensos na tela. Estas inovações haviam sido lançadas um pouco antes pela própria APPLE, num modelo voltado para aplicações profissionais, o LISA. A arquitetura é baseada nas exigências do software, com um microprocessador Motorola 68000 de 32 bits. Atari 130ST

É com base nesse mesmo Motorola, o mais avançado à época, que Jay Minner, ambicionando criar o videogames definitivo dos anos 80, projeta o LORRAINE.

Funda a AMIGA, que não demora a atravessar dificuldades: segundo a "lenda", seus sócios preocupavam-se mais com videogames do que com a parte comercial.

A ATARI surgiu como opção para adquirir a companhia, pretendendo incorporar o projeto ao do seu ATARI ST, mas o acordo falha e é fechado com a Commodore.

O AMIGA 1000 é lançado em 1985, mas vítima de um marketing que o apresenta ao mesmo tempo como uma estação gráfica, "multitasking", profissional, pessoal e doméstico, não vende o esperado, sendo desmembrado em duas versões: o Amiga 500, destinado a aplicações domésticas, e o Amiga 2000, destinado a aplicações profissionais: nascia a família Commodore/Amiga, que hoje, junto com o Apple/Macintosh e o IBM/PC são as linhas pessoais mais populares do planeta.

Em 1987, visando reconquistar o público e liquidar a concorrência, a IBM lança uma segunda geração de computadores pessoais - a linha PS, destinada a substituir a linha PC. O PS/2, de 32 bits, uma nova família operando com o sistema operacional OS/2, é apresentado como uma grande evolução no mercado.

Na verdade, desenvolvido originalmente para ser o "Windows" dos computadores de grande porte, por exigências estratégicas foi estendido aos microcomputadores. A idéia principal reside no fato de que o PC, por se constituir num sistema aberto, pode ser copiado livremente. Mas quem deseje produzir clones do PS/2 deve pagar royalties à iniciadora da tecnologia, e a IBM esperava com isso, aplicar um cheque-mate aos concorrentes, pois líder de mercado, acreditou que os consumidores abraçariam imediatamente o novo produto, forçando a que os concorrentes, sem clientes, fossem obrigados a produzir cópias do PS/2, pagando-lhe royalties.

Os consumidores, entretanto, continuam a preferir os micros PC, ao mesmo tempo em que os preços continuam em queda livre, dando prejuízo à IBM, e reduzindo ainda mais sua participação no mercado.

Em maio/93 a Intel lança o microprocessador Pentium, sucessor do 80486 e com o dobro do seu desempenho, destinado a "mainframes".

Para os micros, é preparado o Intel Pentium Over Drive, de 32 bits, que pode ser instalado pelo próprio usuário na placa-mãe, num soquete azul destinado a esse fim.

O mercado, hoje em 1995, dispõe, rompidas as limitações iniciais do Pentium, de versões de 60, 66, 90 e 100 MHz, capacidade mais do que suficiente para rodar as aplicações comuns de um PC DOS.

E novamente o Apple/Macintosh sai na frente com o PowerMac, baseado no Power PC 601 RISC de 60 MHz, enquanto a mídia da IBM promete o seu Power PC, baseado no Power PC 615, que também poderá ser colocado nos "slots" overdrive preparados para receber os Pentium.

Enquanto isso, o lançamento do Commodore Amiga CD-32 revoluciona o mercado de aparelhos domésticos de lazer, prometendo substituir os CD, os V-K7; os Videogames e o próprio computador pessoal com disquetes, ao mesmo tempo em que a notícia de que a Commodore Amiga será vendida, despertam as declarações dos fabricantes de soft e de hardware de que continuarão produzindo enquanto houver demanda por parte dos usuários, demanda essa que permanecerá forte, por pelo menos mais cinco anos enquanto o preço das máquinas estiver caindo, num fenómeno semelhante ao que acontecera com o C-64, que mesmo completamente obsoleto em 1992, ainda era produzida e exportado para os países do Leste Europeu, e com o próprio IBM-PC, do qual ainda existem exemplares de XT e AT 286 rodando comercialmente, embora a preços cada vez menores.

Do terreno do "hardware", a disputa invade o mercado milionário do "software", onde sistemas operacionais, de redes, plataformas, programas de suporte, aplicativos, e jogos, disputam a atenção e a preferência do usuário.

O terreno de batalha é a mídia, num conflito onde as armas são as promoções, a compatibilidade de sistemas, o suporte ao usuário e expressões como SOHO, "user friendly" e "WYSIWYG" ("what you see is what you get") são os gritos de guerra.

Em tempos de sistema operacional OS/2 WARP (olha "Star Trek" de volta - deu certo para o Altair...), de "chips" Pentium com defeito de fábrica sendo substituídos pela Intel, e de máquinas Power, quem consegue prever o futuro?

A CAMINHO DO PC VERDE

O chip que compõe o microcomputador, sem dúvida revolucionou o mundo, técnica, e economicamente.

O próprio micro fez revoluções na Administração, na cultura e na sociedade. Se as máquinas de grande porte, os "mainframes" da década de 50/70 refletiram uma filosofia centralizadora de uma geração que se mobilizou para uma guerra mundial e viveu a "Guerra Fria" à espera do conflito que devastaria o planeta, o fruto dessa expectativa é a INTERNET, cuja filosofia é totalmente descentralizada.

Em sua acelerada evolução, os computadores pessoais ganharam tal poder de processamento que passaram a assumir tarefas antes exclusivas dos mainframes. A mudança, que representa uma tendência de mercado, ganhou o nome de "downsizing", e por esse processo, numerosas empresas que por décadas se apoiaram nos "mainframes" transferem a totalidade ou parcelas de seu processamento para microcomputadores ligados em rede, a custos significativamente menores, e muitas vezes com resultados melhores, uma vez que os micros são mais versáteis.

O fenômeno da descentralização, como Alvin Toffler já previra no final da década de 70 é mais profundo, é a chamada "Terceirização", que em alguns pontos já atingiu mesmo uma "Quarteirização", e no mundo da informática, com o auxílio da micro-informática, revela-se em termos de arquiteturas abertas, tanto para sistemas, quanto para programas.

Mas nem tudo são flores. Se o computador pessoal prometia reduzir drasticamente o consumo de papel nos escritórios, guardando arquivos eletronicamente, ao permitir a impressão de todos os tipos de rascunho com destino final o lixo, antes de se obter a forma definitiva do documento, fez o contrário. Junte-se a esse desperdício involuntário de papel, as centenas de manuais necessários para dominar o assunto (com cada vez maior número de páginas e menor tempo de vida útil), às dezenas de subprodutos tóxicos e não degradáveis envolvidos no processamento de informações (plásticos, cartuchos, fitas, cilindros, tintas, pilhas e baterias), sem falar dos CFCs envolvidos na limpeza industrial de placas e componentes, e temos uma indústria altamente poluente.

O primeiro passo para solucionar o problema ambiental é a campanha dos produtos com o selo "Energy Star", lançada nos E.U.A. pela E.P.A. - Environment Protection Agency em meados de 1993, visando motivar os grandes fabricantes - IBM, Apple, Epson, Hewlett-Packard, Compac - a seguir normas de conservação de energia.

Existem outros pontos a questionar: o impressionante volume de recursos desperdiçados na compra de equipamentos desnecessários e/ou mal dimensionados às reais necessidades dos usuários; o fenômeno do "home-work", que para algumas mentes ingênuas trata­se de uma evolução que permite maior conforto ao trabalhador, sem questionar que o principal afetado é o lazer do trabalhador, que de 40h/semanais passa a trabalhar na prática até 52 horas por semana sem controle; o fenômeno do treinamento de usuários, dilui as fronteiras entre os mundos acadêmico e profissional.

O aumento na capacidade de processamento das máquinas torna reais coisas que até ontem pertenciam à Ficção Científica. Hoje (1995) a multimídia é uma realidade quer com os Macintosh, os Amiga ou os PC.

O grande desafio é a compatibilidade, mas da mesma forma que o CDs substituíram o vinil, e as fitas de VK7 os filme Super-8 e o próprio cinema em parte, desde já o microcomputadores domésticos estão substituindo o CDs, os vídeos, as enciclopédias, e quem sabe o que mais.

Os avanços em direção à lógica "fuzzy" são visíveis tomando os programas "inteligentes": um processada de texto comum, atualmente reconhece e corrige os erro mais comuns de seu usuário. O processamento de só é uma conquista, e o de palavras/vozes de maneira prática não está distante.

Para quem não sabe onde chegar, qualquer ponto é destino, diz um ditado chinês. Aconteceram tantas coisa nos últimos dez anos que é difícil explicar para os hoje adolescentes, que nossos primeiros programas era gravados em fitas K 7. Será que alguém guardou um TK82C ou um CP 500?...

Fonte: www.cobit.xpg.com.br

Dia da Informática

15 de Agosto

História da Informática Educativa no Brasil

O Brasil iniciou a busca de um caminho para informatizar a educação (Andrade & Albuquerque Lima, 1993)* em 1971, quando pela primeira vez se discutiu o uso de computadores no ensino de Física (USP/São Carlos).

Em 1973, algumas experiências começaram a ser desenvolvidas em outras universidades, usando computadores de grande porte como recurso auxiliar do professor para ensino e avaliação em Química (Universidade Federal do Rio de Janeiro - UFRJ) e desenvolvimento de software educativo na Universidade Federal do Rio Grande do Sul - UFRGS.

Destacam-se, ainda, nos anos 70, as experiências do Laboratório de Estudos Cognitivos do Instituto de Psicologia - LEC, da UFRGS, apoiadas nas teorias de Piaget e Papert, com público-alvo de crianças com dificuldades de aprendizagem de leitura, escrita e cálculo.

A Universidade Estadual de Campinas - UNICAMP, em 1975, iniciou cooperação técnica - ainda existente - com o Media Lab LAB do Massachussets Institute of Technology - MIT, criando um grupo interdisciplinar para pesquisar o uso de computadores com linguagem LOGO na educação de crianças.

A cultura nacional de informática na educação teve início nos anos 80, a partir dos resultados de dois seminários internacionais (1981 e 1982) sobre o uso do computador como ferramenta auxiliar do processo de ensino-aprendizagem.

Surgiu, em tais seminários, a idéia de implantar projetos-piloto em universidades, o que originou, em 1984, o Projeto EDUCOM, iniciativa conjunta do MEC, Conselho Nacional de Pesquisas - CNPq, Financiadora de Estudos e Projetos - FINEP e Secretaria Especial de Informática da Presidência da República - SEI/PR, voltada para a criação de núcleos interdisciplinares de pesquisa e formação de recursos humanos nas universidades federais do Rio Grande do Sul (UFRGS), do Rio de Janeiro (UFRJ), Pernambuco (UFPE), Minas Gerais (UFMG) e na Universidade Estadual de Campinas (UNICAMP). Apesar de dificuldades financeiras, este projeto foi o marco principal do processo de geração de base científica e formulação da política nacional de informática educativa.

Considerando os resultados do Projeto EDUCOM, o MEC criou, em 1986, o Programa de Ação Imediata em Informática na Educação de 1o e 2o grau, destinado a capacitar professores (Projeto FORMAR) e a implantar infraestruturas de suporte nas secretarias estaduais de educação (Centros de Informática Aplicada à Educação de 1o e 2o grau - CIED), escolas técnicas federais (Centros de Informática na Educação Tecnológica - CIET) e universidades (Centro de Informática na Educação Superior - CIES).

Competia a cada secretaria de educação e a cada instituição de ensino técnico e/ou superior definir pedagogicamente sua proposta.

Foram implantados em vários estados da Federação 17 CIEDs (1988-89), nos quais grupos interdisciplinares de educadores, técnicos e especialistas trabalhavam com programas computacionais de uso/aplicação de informática educativa.

Esses centros atendiam a alunos e professores de 1o e 2o grau e à comunidade em geral e foram irradiadores e multiplicadores da telemática na rede pública de ensino.

A Organização dos Estados Americanos - OEA, em 1988, convidou o MEC para valiar o projeto de Informática Aplicada à Educação Básica do México. Isso fez o MEC e a OEA formularem um projeto multinacional de cooperação técnica e financeira, integrado por oito países americanos, que vigorou entre 1990 e 1995.

A sólida base teórica sobre informática educativa no Brasil existente em 1989 possibilitou ao MEC instituir através da Portaria Ministerial n. 549/89, o Programa Nacional de Informática na Educação - PRONINFE, com o objetivo de “desenvolver a informática educativa no Brasil, através de atividades e projetos articulados e convergentes, apoiados em fundamentação pedagógica, sólida e atualizada, de modo a assegurar a unidade política, técnica e científica imprescindível ao êxito dos esforços e investimentos envolvidos.”

Apoiado em dispositivos constitucionais relativos à educação, ciência e tecnologia, o PRONINFE visava: promover o desenvolvimento da informática educativa e seu uso nos sistemas públicos de ensino (1o , 2o e 3o grau e educação especial); fomentar o surgimento de infra-estrutura de suporte nas escolas, apoiando a criação de centros, subcentros e laboratório; capacitar contínua e permanentemente professores.

O Programa previa crescimento gradual da competência tecnológica referenciada e controlada por objetivos educacionais, amparado num modelo de planejamento participativo que envolvia as comunidades interessadas. Os objetivos e metas do PRONINFE foram formulados em sintonia com a política nacional de ciência e tecnologia da época.

O PRONINFE apresentou os seguintes resultados no período de 1980 - 1995:

44 centros de informática na educação implantados, a maioria interligada na Internet.

400 subcentros implantados, a maioria por iniciativas de governos estaduais e municipais, a partir do modelo de planejamento concebido, inicialmente, pelo Projeto EDUCOM/UFRGS (destes, 87 estão no Estado do Rio Grande do Sul).

400 laboratórios de informática educativa em escolas públicas, financiados por governos estaduais e municipais.

Mais de 10.000 profissionais preparados para trabalhar em informática educativa no país, incluindo um número razoável de pesquisadores com cursos de mestrado e doutorado.

O PRONINFE, apesar de dificuldades orçamentárias, gerou, em dez anos, uma cultura nacional de informática educativa centrada na realidade da escola pública.

Ele constituiu o principal referencial das ações atualmente planejadas pelo MEC: correspondeu, praticamente a uma fase piloto que durou mais de uma década.

São também ações importantes: implantação de 50 centros de informática em São Paulo, com recursos do governo municipal (1987/1988); ainda na capital paulista, em 1996, introdução de vigoroso programa de informatização de escolas (10.000 computadores); em 1997 serão instalados mais de 400 laboratórios nas escolas públicas do Estado de São Paulo, num trabalho orientado pelo Núcleo de Informática Educativa - NIED da UNICAMP, que também coordena a implantação de laboratórios em todos os colégios militares do País e a formação de mais de 1.000 professores dessas instituições.

(*) Andrade, P.F. (1996); Programa Nacional de Informática Educativa. A utilização da Informática na escola pública brasileira. (1970-2004); MEC: Secretaria de Educação a Distância.

Fonte: www.edutec.net

Dia da Informática

15 de Agosto

No século XIX, muito tempo antes da era eletrônica, o inglês Charles Babbage chegou tão perto das funções de um computador que hoje em dia ele é conhecido como o pai do computador.

Dia da Informática

A primeira máquina construída segundo as especificações de Babbage, a máquina de Diferenças, era alimentada por um motor à vapor. ela calculava tábuas de logaritmos pelo método da diferença constante e registrava os resultados em uma placa de metal.

Dia da Informática

O modelo de trabalho que ele produziu em 1822 era uma calculadora de seis dígitos capaz de preparar e imprimir tábuas numéricas. Em 1833, Babbage divulgou o plano de uma máquina para efetuar uma ampla escala de tarefas de computação em um estoque de 100 unidades de 40 dígitos.

Um engenho composto de engrenagens e rodas manipularia os números, obedecendo às instruções fornecidas por um operador através de cartões perfurados.

Calculadora de Babbage

A idéia de perfurar cartões não era nova. Joseph-Marie Jacquard, um tecelão de seda francês, inventara esse recurso para seu tear de seda automatizado.

A tecnologia de Jacquard chegou a tal grau de refinamento que a tecelagem de um intrincado padrão na seda requeria a perfuração de 10 mil cartões.

Infelizmente, a tecnologia do tempo de Babbage não estava ao alcance do notável maquinário que ele projetou.

Ele jamais conseguiu terminar sua Máquina analítica, mas concebeu os princípios fundamentais do moderno computador.

Dia da Informática

Herman Hollerith

Herman Hollerith construiu o que tem sido considerado como o primeiro processador de dados do mundo, para contar e tabular o censo americano de 1890.

A história dessa realização começou em 1880, quando Hollerith trabalhava como agente especial do censo. Ele observou a penosa lentidão do processo de contagem, no qual um exército de funcionários trabalhou manualmente durante cinco anos para analisar, organizar e publicar os resultados.

Hollerith desenvolveu a idéia de utilizar cartões do tamanho das notas de dólar, com 12 fileiras de 20 furos, correspondendo a idade, sexo, lugar de nascimento, estado civil, número de filhos e outros dados do cidadão.Os apuradores transferiam as respostas para os cartões, perfurando os lugares adequados.

Depois colocavam os cartões em uma máquina de tabulação: cada vez que um pino encontrava um furo, a informação era registrada em um quadro de mostradores. Assim foram computadas as informações acerca de 62.622.250 pessoas, no censo americano de 1890.

Hollerith aperfeiçoou depois sua invenção e para a fabricação de suas máquinas fundou a empresa que veio a fazer parte da corporação conhecida hoje como IBM.

As idéias de Charles Babbage se concretizaram 70 anos após sua morte, quando os pesquisadores da Universidade de Harvard, chefiados por Howard Aiken, começaram a trabalhar na calculadora Mark I, em 1941.

A Mark I efetuava por segundo três adições e subtrações, ou uma multiplicação, podia resolver em um dia problemas matemáticos que tomariam seis meses de uma pessoa., com a ajuda de uma calculadora. Mas a Mark I foi logo ultrapassada pelo Eletronic Numerical Integrator and Computer, ou ENIAC construído com válvulas eletrônicas (1ª geração de computadores).

J.P. Eckert e John Mauchly, da Universidade da Pensilvânia, inauguraram o novo computador em 14 de fevereiro de 1946. O ENIAC era mil vezes mais rápido do que qualquer máquina anterior, resolvendo 5 mil adições e subtrações, 350 multiplicações ou 50 divisões por segundo.

E tinha o dobro do tamanho do Mark I: encheu 40 gabinetes com 100 mil componentes, incluindo cerca de 17 mil válvulas eletrônicas. Pesava 27 toneladas e media 5,50 x 24,40 m e consumia 150 kW.

Apesar de seus inúmeros ventiladores, a temperatura ambiente chegava às vezes aos 67 graus centígrados. Executava 300 multiplicações por segundo, mas, como foi projetado para resolver um conjunto particular de problemas, sua reprogramação era muito lenta. Tinha cerca de 19.000 válvulas substituídas por ano.

Em 1943, antes da entrada em operação do ENIAC a Inglaterra já possuía o Colossus, máquina criada por Turing para decifrar os códigos secretos alemães. Possuía 2.000 válvulas, coincidentemente o mesmo número proposto por Zuse alguns anos antes.

Em 1945 Von Neumann sugeriu que o sistema binário fôsse adotado em todos os computadores, e que as instruções e dados fôssem compilados e armazenados internamente no computador, na sequência correta de utilização. Estas sugestões tornaram-se a base filosófica para projetos de computadores. (Atualmente pesquisam-se computadores "não Von Neumann", que funcionam com fuzzy logic, lógica confusa) A partir dessas idéias, e da lógica matemática ou álgebra de Boole, introduzida por Boole no início do século XIX, é que Mauchly e Eckert projetaram e construíram o EDVAC, Electronic Discrete Variable Automatic Computer, completado em 1952, que foi a primeira máquina comercial eletrônica de processamento de dados do mundo.

Eles haviam tentado isso com o BINAC, computador automático binário, de 1949, que era compacto (1,40 x 1,60 x 0,30 m) o suficiente para ser levado a bordo de um avião, mas que nunca funcionou a contento. O EDVAC utilizava memórias baseadas em linhas de retardo de mercúrio, bem mais caras e lentas que os CRTs, mas também com maior capacidade de armazenamento. Wilkes construiu o EDSAC, Electronic Delay Storage Automatic Calculator em 1949, que funcionava segundo a técnica de programas armazenados.

O primeiro computador comercial de grande escala foi o UNIVAC, UNIVersal Automatic Computer, americano, de 1951, que era programado ajustando-se cerca de 6.000 chaves e conectando-se cabos a um painel. A entrada e saída de informações era realizada por uma fita metálica de 1/2 polegada de largura e 400 m de comprimento.

Ao todo, venderam-se 46 unidades do UNIVAC Modelo I, que eram normalmente acompanhados de um dispositivo impressor chamado UNIPRINTER, que, sozinho, consumia 14.000 W. Outro foi o IBM 701, de 1952, que utilizava fita plástica, mais rápida que a metálica do UNIVAC, e o IBM 704, com a capacidade fenomenal de armazenar 8.192 palavras de 36 bits, ambos da IBM. Na Inglaterra surgem o MADAM, Manchester Automatic Digital Machine, o SEC, Simple Electronic Computer, e o APEC, All-Purpose Electronic Computer.

Entre 1945 e 1951, o WHIRLWIND, do MIT, foi o primeiro computador a processar informações em tempo real, com entrada de dados a partir de fitas perfuradas e saída em CRT (monitor de vídeo), ou na flexowriter, uma espécie de máquina de escrever (Whirlwind quer dizer redemoinho).

Em 1947 Bardeen, Schockley e Brattain inventam o transístor, e, em 1953 Jay Forrester constrói uma memória magnética.

Os computadores a transístores surgem nos anos 50, pesando 150 kg, com consumo inferior a 1.500 W e maior capacidade que seus antecessores valvulados. Era a segunda geração. Exemplos desta época são o IBM 1401 e o BURROUGHS B 200. Em 1954 a IBM comercializa o 650, de tamanho médio.

O primeiro computador totalmente transistorisado foi o TRADIC, do Bell Laboratories. O IBM TX-0, de 1958, tinha um monitor de vídeo de primeira qualidade, era rápido e relativamente pequeno, possuia dispositivo de saída sonora e até uma caneta óptica.

O PDP-1, processador de dados programável, construído por Olsen, virou sensação no MIT: os alunos jogavam Spacewar! e Rato-no-labirinto, através de um joystick e uma caneta óptica.

Em 1957 o matemático Von Neumann colaborou para a construção de um computador avançado, o qual, por brincadeira, recebeu o nome de MANIAC, Mathematical Analyser Numerator Integrator and Computer.

Em janeiro de 1959 a Texas Instruments anuncia ao mundo uma criação de Jack Kilby: o circuito integrado.

Enquanto uma pessoa de nível médio levaria cerca de cinco minutos para multiplicar dois números de dez dígitos, o MARK I o fazia em cinco segundos, o ENIAC em dois milésimos de segundo, um computador transistorizado em cerca de quatro bilionésimos de segundo, e, uma máquina de terceira geração em menos tempo ainda. A terceira geração de computadores é da década de 60, com a introdução dos circuitos integrados.

O Burroughs B-2500 foi um dos primeiros. Enquanto o ENIAC podia armazenar vinte números de dez dígitos, estes podem armazenar milhões de números. Surgem conceitos como memória virtual, multiprogramação e sistemas operacionais complexos. Exemplos desta época são o IBM 360 e o BURROUGHS B-3500.

Em 1960 existiam cerca de 5.000 computadores nos EUA. É desta época o termo software. Em 1964, a CSC, Computer Sciences Corporation, criada em 1959 com um capital de 100 dólares, tornou-se a primeira companhia de software com ações negociadas em bolsa.

O primeiro minicomputador comercial surgiu em 1965, o PDP-5, lançado pela americana DEC, Digital Equipament Corporation. Dependendo de sua configuração e acessórios ele podia ser adquirido pelo acessível preço de US $ 18,000.00.

Seguiu-se o PDP-8, de preço ainda mais competitivo. Seguindo seu caminho outras companhias lançaram seus modelos, fazendo com que no final da década já existissem cerca de 100.000 computadores espalhados pelo mundo.

Em 1970 a INTEL Corporation introduziu no mercado um tipo novo de circuito integrado: o microprocessador. O primeiro foi o 4004, de quatro bits. Foi seguido pelo 8008, em 1972, o difundidíssimo 8080, o 8085, etc. A partir daí surgem os microcomputadores.

Para muitos, a quarta geração surge com os chips VLSI, de integração em muito larga escala.

As coisas começam a acontecer com maior rapidez e frequência. Em 1972 Bushnell lança o vídeo game Atari. Kildall lança o CP/M em 1974.

O primeiro kit de microcomputador, o ALTAIR 8800 em 1974/5. Em 1975 Paul Allen e Bill Gates criam a Microsoft e o primeiro software para microcomputador: uma adaptação BASIC para o ALTAIR. Em 1976 Kildall estabelece a Digital Research Incorporation, para vender o sistema operacional CP/M. Em 1977 Jobs e Wozniak criam o microcomputador Apple, a Radio Shack o TRS-80 e a Commodore o PET.

A planilha Visicalc (calculador visível) de 1978/9, primeiro programa comercial, da Software Arts.

Em 1979 Rubinstein começa a comercializar um software escrito por Barnaby: o Wordstar, e Paul Lutus produz o Apple Writer. O programa de um engenheiro da NASA, Waine Ratliff, o dBASE II, de 1981. Também de 1981 o IBM-PC e o Lotus 1-2-3, de Kapor, que alcançou a lista dos mais vendidos em 1982.

Fotos do ENIAC:

Dia da Informática

Dia da Informática

Dia da Informática

Fonte: www.informatic.hpg.com.br

Dia da Informática

15 de Agosto

Em 1847 foi criado o sistema binário pelo matemático inglês George Boole. Três décadas depois um norte-americano criou um processo de dados electromecânico.

Meio século mais tarde, nos Estados Unidos, um engenheiro desenvolveu um computador usando válvulas de rádio.

Em 1946 é criado o Eniac, o primeiro computador electrónico, que foi elaborado para servir os interesses bélicos dos EUA na II Guerra Mundial, já que ajudava na realização de cálculos para desenvolver a bomba atómica.

Dez anos depois surge no Instituto de Tecnologia de Massachusetts (MIT), o primeiro computador que utiliza transitores.

Em 1963 é patenteado o rato e no ano seguinte, um pesquisador norte-americano projectou e criou a primeira rede de computadores interligada por fios.

Cinco anos depois a IBM desenvolveu o Ramac 305, utilizando discos de memória de 5 megabits.

Em 1975 foi desenvolvida a linguagem Basic, a primeira linguagem para microcomputadores. Ainda no mesmo ano, Bill Gates e Paul Allen fundaram a Microsoft.

No ano seguinte, Steve Wozniak e Steve Jobs criam a Apple Computer Company.

Em 1981 a IBM lançou o PC 5150. A partir dai estava lançada a “guerra” entre as empresas e foi sempre uma disputa a ver quem fazia melhores descobertas a nível de informática.

Em 1985 a Microsoft lançou o Windows e o Word 1.0.

Em 1989 Tim Berners-Lee criou a World Wide Web que originou a internet. Em 1991 é lançado o sistema operacional Linux.

Dois anos depois a Intel colocou no mercado o processador Pentium e no ano seguinte foi criado o navegador de internet Netscape Navigator. E as descobertas seguiram, levando mesmo o computador a ganhar propriedades que eram inimagináveis, o que se reflectiu, quando em 1997, o campeão mundial de xadrez, Garri Kasparov, perdeu para um computador.

O certo é que as inovações informáticas não param de acontecer e o computador enraizou-se de tal forma, que são poucas as coisas que subsistem sem o seu uso.

Tornou-se parte essencial na vida das sociedades.O crescimento populacional, a globalização e o desenvolvimento do capitalismo no século XX, incutiram novas necessidades no ser humano. A informática surge neste contexto, em que havia a necessidade do homem registar e manipular dados em grandes quantidades com precisão e rapidez.

Em 1622 um matemático inglês desenvolveu a primeira régua de cálculo. Este foi o ponto de partida para se chegar à informática, só que foi um processo demorado, que foi conquistado com pequenas descobertas.

Fonte: www.ruadireita.com

Dia da Informática

15 de Agosto

Com o crescimento populacional, a globalização e o desenvolvimento do capitalismo no século XX, surgem novas necessidades para o ser humano.

A quantidade de dados e informações para serem armazenas e computadas atinge um volume incalculável.

A informática surge neste contexto: superar a necessidade do ser humano de registrar e manipular dados em grandes quantidades com precisão e rapidez.

Segue abaixo um histórico do desenvolvimento da informática e das tecnologias ligadas a computação em geral:

1622 - O matemático inglês William Oughtred desenvolve a primeira régua de cálculo.

1642 - O pesquisador francês Blaise Pascal cria a primeira calculadora.

1822 - O matemático inglês Charles Babbage projeta um computador mecânico, porém este não saiu do papel.

1847 - É criado o sistema binário pelo matemático inglês George Boole.

1880 - O norte-americano Herman Hollerith cria um processador de dados eletromecânico. O sistema usava cartões perfurados para inserir dados.

1930 - Nos Estados Unidos, o engenheiro eletricista Vannevar Bush desenvolve um computador usando válvulas de rádio.

1946 - Os engenheiros norte-americanos John William Mauchly e John Presper Eckart Jr desenvolvem o Eniac, o primeiro computador eletrônico. O Eniac foi desenvolvido para servir aos interesses bélicos dos EUA na II Guerra Mundial. Serviu para fazer os cálculos no desenvolvimento da bomba atômica.

1954 - A empresa eletrônica Texas Instruments fabrica o transistor usando silício.

1956 - Surge, no MIT - Instituto de Tecnologia de Massachusetts - o primeiro computador que utiliza transistores.

1963 - Douglas Engelbart patenteia o mouse.

1964 - Paul Baran, pesquisador norte-americano, projeta e cria a primeira rede de computadores interligada por fios.

1966 - A IBM desenvolve o Ramac 305, utilizando discos de memória com capacidade de 5 megabits.

1968 - Douglas Engelbart cria um sistema com mouse, teclado e janelas ( windows ).

1971 - A Intel cria o MCS-4, primeiro microcomputador pessoal com o processador 4004.

1972 - A empresa Atari cria o primeiro videogame com o jogo Pong.

1975 - desenvolvem a linguagem Basic, primeira linguagem para microcomputadores, . As linguagens anteriores eram adequadas aos grandes e médios computadores.

1975 - Bill Gates e Paul Allen fundam a Microsoft.

1976 - Steve Wozniak e Steve Jobs projetam e desenvolvem o micro Apple I. No mesmo ano a dupla a Apple Computer Company.

1981 - A IBM lança o micro PC 5150.

1985 - A Microsoft o sistema operacional Windows e o Word 1.0 (primeira versão do processador de textos).

1989 - Tim Berners-Lee , pesquisador europeu cria a World Wide Web ( WWW) que origina a Internet.

1991 - Linus Torvald lança o sistema operacional Linux com código-fonte aberto.

1992 - A empresa americana Microsoft lança o sistema operacional Windows 3.1. A nova versão do Windows incorpora tecnologias voltadas para a utilização de CD-Roms.

1993 - Surge o primeiro browser, o NCSA Mosaic.

1993 - A empresa de processadores Intel coloca no mercado o processador Pentim.

1994 - É criado o navegador de internet Netscape Navigator.

1995 - Chega ao mercando o Windows 95, trazendo incorporado o navegador Internet Explorer.

1995 - Criada a linguagem Java pela Sun Microsystems.

1997 - Garri Kasparov, campeão mundial de xadrez, perde pra o computador Deep Blue da IBM.

1997 - Justin Fraenkel desenvolve o Winamp, programa utilizado para ouvir músicas no formato MP3.

1998 - A Microsoft lança no mercado o Windows 98.

1999 - A Intel lança no mercado o processador Pentium III.

Fonte: www.geocities.com

Sobre o Portal | Política de Privacidade | Fale Conosco | Anuncie | Indique o Portal