Facebook do Portal São Francisco Google+
+ circle
Home  álgebra - Página 4  Voltar

Álgebra

Progressos Ulteriores

Faremos aqui um pequeno resumo da evolução dos números complexos, para que o leitor tenha uma visão global da historia do assunto. Come¸caremos listando alguns progressos na notação para depois nos ocuparmos da evolução dos conhecimentos.

O símbolo Álgebra foi introduzido em 1629 por Albert Girard.

O símbolo i foi usado pela primeira vez para representar Álgebra por Leonhard Euler em 1777, apareceu impresso pela primeira vez em 1794 e se tornou amplamente aceito apos seu uso por Carl Friederich Gauss em 1801.

Os termos real e imaginário foram empregados pela primeira vez por René Descartes em 1637.

A expressão numero complexo foi introduzida por Gauss em 1832.

Como observamos na seção anterior, a partir do trabalho de Bombelli, os números complexos come¸caram a ser utilizados devido a sua obvia utilidade para resolver equações de terceiro grau mas, ao mesmo tempo, era claro que tais números não poderiam existir. A primeira tentativa de legitimação, via uma “interpretação geométrica”, ´e devida a John Wallis (1616 - 1703), contemporâneo de Newton e professor na Universidade de Oxford. Em 1673 ele publicou um tratado intitulado Álgebra, em cujo capitulo LXVI discute a impossibilidade da existência de quantidades imaginarias e compara esta questão com a da existência de quantidades negativas:

Depois de considerar diversos exemplos de números negativos interpretados em termos de segmentos sobre uma reta orientada, ele tenta uma interpretação para as quantidades imaginarias:

Agora, o que ´e admitido para linhas, deve, pela mesma razão, ser permitido também para planos. Por exemplo: suponhamos que num local ganhamos do mar 30 acres, mas perdemos em outro local 20 acres: se agora formos perguntados quantos acres ganhamos ao todo a resposta ´e 10 acres, ou +10 (pois 30 - 20 = 10).

. . .Mas se num terceiro local perdemos mais 20 acres, a resposta deve ser -10 (pois 30 - 20 - 20 = -10) . . . .

Mas agora, supondo que esta planície negativa de -1600 square perches [20 acres correspondem a 1600 square perches, uma outra medida inglesa da época] tem a forma de um quadrado, não devemos supor que este quadrado tem um lado? E assim, qual será esse lado?

Não podemos dizer que ´e 40 e nem -40 . . .Mas sim que é Álgebra (a suposta raiz de um quadrado negativo) ou Álgebra ou Álgebra

Como era de se esperar, esta interpretação não teve uma grande acolhida entre seus contemporâneos e nenhuma repercussão posterior.

Notemos que, no trabalho de Bombelli, este assume qual a raiz cúbica de um complexo ´e outro numero complexo e, partindo desta suposição e, aceitando implicitamente que as operações entre complexos tem as mesmas propriedades que as operações com reais, ele a calcula em certos casos particulares. Notemos que, ate aqui, nada garante que raízes cúbicas - ou, em geral raízes n-ésimas de complexos - são, de fato, complexos.

Tal como assinala M. Kline [13, pag. 595], no começo do século XVIII a maioria dos matemáticos ainda acreditava que raízes de diferente ordem de números complexos levariam `a introdução de diferentes tipos de complexos.

Abraham De Moivre (1667 - 1754) nasceu na Franca, mas viveu na Inglaterra a partir dos dezoito anos, quando o Edicto de Nantes, que protegia os Hugonotes, foi revogado. Estudou matemática sozinho, apos ler os Principia de Newton, chegando a se tornar membro de Royal Society e das academias de Paris e Berlim. Seu trabalho versou fundamentalmente sobre trigonometria, probabilidade e calculo de anuidades. Em 1722, utilizando fatos que já havia publicado em 1707, ele obteve um resultado que implica na formula que leva seu nome e que diz como calcular a raiz n-ésima de um numero complexo, que ele escreveu em casos particulares. Porem, ele nunca chegou a enuncia-la ou a demonstra-la no caso geral.

Esta tarefa coube a Leonhard Euler (1707 - 1754), considerado o mais prol´ifico matem´atico de todos os tempos. Numa carta endereçada a Jean Bernoulli, datada em 18 de outubro de 1740, ele afirma que Álgebra e Álgebra eram ambas soluções da mesma equação diferencial (o que reconheceu através do desenvolvimento em serie das soluções) e que, portanto, deviam ser iguais. Publicou este resultado em 1743; explicitamente:

Álgebra

Em 1748 ele demonstrou a formula de De Moivre e estendeu sua validade para todo expoente n real. Com isso, a existência de raízes no campo complexo ficou definitivamente estabelecida. Obviamente, Euler compreendia e utilizava muito bem os números complexos. O fato de ele próprio ter grandes duvidas quanto a sua legitimidade ilustra claramente o status deste corpo numérico na época. Diz ele na sua Vollstandige Anleitung zur Algebra publicada primeiro em russo em 1768-69 e depois em alemão em 1770 e que se tornou uma referencia clássica nesta área pelos próximos dois séculos:

Desde que todos os números concebíveis são maiores do que 0, ou menores do que 0 ou iguais a 0, ´e claro que a raiz quadrada de um numero negativo não pode ser incluída entre os números possíveis. Consequentemente, devemos dizer que estes são números impossíveis. E esta circunstancia nos conduz a tais números, que por sua natureza são impossíveis, e que são chamados costumeiramente de imaginários, pois eles só existem na imaginação.

O Teorema Fundamental da Álgebra

A questão de resolver equações por radicais se tornou um problema central na álgebra, especialmente a partir do século XIV. Note que o fato de se ter uma formula para resolver equações de um determinado grau pode não ser muito útil, do ponto de vista pratico. Basta observar a formula de Cardano-Tartaglia para perceber que, salvo alguns casos particulares em que os coeficientes são especialmente simples, a aplicação da formula implica em calcular raízes quadradas e cúbicas, que certamente deverão ser aproximadas. As raízes reais destas equações podem ser calculadas mais facilmente e com uma aproximação melhor usando os métodos do calculo (por exemplo, o método de Newton, ou de Role).

A razão deste interesse e mais teórica. Tendo em vista a formula de De Moivre, provada por Euler, resultas claro que se uma equação pode ser resolvida mediante operações algébricas e radicais, então suas soluções serão seguramente números complexos e isso mostraria que novas ampliações dos campos numéricos não se fazem necessárias. Parecia natural se provar que uma equação polinomial de grau n tem exatamente n raízes.

Ainda, um tal resultado seria útil pois o uso do método da decomposição em frações parciais para integrar quocientes de polinômios levou naturalmente a questão de decidir se todo polinômio com coeficientes reais pode, ou não, se escrever como o produto de fatores lineares e fatores quadráticos, com coeficientes também reais.

E interessante observar que nem todos os matemáticos acharam isso possível. Já num artigo publicado em 1702, no Acta Erudictorum, Gottfried Wilhem Leibniz (1646-1716), um dos criadores do calculo, achou que tinha um contra-exemplo; o polinômio Álgebra que ele decompunha como:

Álgebra

e afirmava que o produto de dois quaisquer destes fatores não dava uma expressão quadrática com coeficientes reais. Nicholas Bernoulli (1687- 1759) corrigiu esta observação em 1719, na mesma revista, mostrando que

Álgebra

Por outro lado Euler afirmou explicitamente numa carta de 1 de outubro de 1742, dirigida a N. Bernoulli que um polinômio com coeficientes reais, de grau arbitrário, podia se decompor dessa forma. Este também não acreditou na afirmação e deu como contra-exemplo o polinômio

Álgebra

cujas raizes são

Álgebra

que ele acreditava, contradizera a afirmação de Euler.

Numa carta dirigida a Christian Goldbach (1690-1764), em 13 de dezembro de 1742, Euler observou se um polinômio com coeficientes reais tem uma raiz complexa Álgebra também tem a conjugada Álgebrae que o produto

Álgebra

é uma expressão quadrática com coeficientes reais, o que aponta na direção do resultado pretendido. Euler também observa que isso ´e verdade para o aparente contra-exemplo de Bernoulli.

Goldbach não acreditou na afirmação de Euler e propôs como contra exemplo o polinômio Álgebra Euler então mostrou a Goldbach que ele tinha cometido um erro e provou o resultado para polinômios de grau menor o igual a 6.

Apos a observação de Euler acima, a questão da fatoração de um polinômio fica reduzida a provar a existência de raízes, uma vez que o resto ´e uma conseqüência elementar. Este resultado ´e hoje conhecido como Teorema Fundamental da Álgebra:

Todo polinômio com coeficientes reais admite pelo menos uma raiz complexa

Jean Le Rond d’Alembert (1717 - 1783) foi encontrado abandonado na porta da igreja de St. Jean Le Rond, na noite de 16 de novembro de 1717, com cujo nome foi batizado e foi criado por pais adotivos. Apos estudar direito e medicina, decidiu dedicar sua vida à matemática. Trabalhou em álgebra, calculo e sua aplicações, equações diferenciais ordinárias e parcias, funções de vari´avel complexa, mecânica e dinâmica. Ele foi o primeiro a fazer uma tentativa de provar o teorema fundamental da álgebra, em 1746. Sua idéia consiste em, dado um polinômio com coeficientes reais f, determinar números reais b e c tais que f(b) = c. Então, ele prova que existem complexos z1 e w1 cujo modulo e menor que o modulo de c. Depois ele itera este processo para obter uma seqüência que converge a uma raiz de f. Sua prova tem diversas falhas, mas as idéias nela envolvidas são interessantes.

A próxima tentativa seria e devida a Euler que, em 1749, no seu Recherches sur les racines imaginaires des ´equations, prova inicialmente que um polinômio Mônico de grau 2n pode-se decompor como o produto de dois polinômios monicos de grau 2n-1. Como todo polinômio pode-se transformar num polinômio desta forma, multiplicando por um fator da forma axm, com a e m adequados, aplicando uma recorrência baseada no resultado mencionado, o problema estaria resolvido. Infelizmente, Euler provou a existência de uma tal decomposição com detalhes, para polinômios de grau 4 mas, no caso geral, deu apenas o esboço de uma prova.

Em 1772, Joseph Louis Lagrange (1736-1813) deu um longo argumento, baseado no seu trabalho com permutações, tentando ‘completar’ a prova de Euler. Porem, de certa forma, Lagrange assumia que existiam de fato n raízes e que tinham as propriedades dos números, com isso chegando a provar que as raízes eram números complexos.

Finalmente, a primeira prova realmente completa do Teorema Fundamental da Álgebra foi dada por Carl Friederich Gauss (1777-1855) na sua tese de doutoramento, em 1799, intitulada Nova demonstração do teorema que toda função algébrica racional inteira de uma variável pode ser decomposta em fatores reais de primeiro e segundo grau. Como observaram diversos autores, a ´unica incorreção da tese esta no titulo, uma vez que não se trata de uma nova demonstração mas da primeira demonstração realmente correta de tal fato.

Ele começa fazendo um estudo critico das provas anteriores, e apontando as falhas fundamentais de cada uma destas. De Euler, por exemplo, ele diz

se a gente faz operações com estas raízes impossíveis, como se elas realmente existissem, e diz, por exemplo, que a soma de todas as raízes do polinômio Álgebra é igual a -a embora algumas delas possam ser impossíveis (o que realmente significa: se algumas delas são não existentes e estão, portanto, faltando), então eu só posso dizer que eu desaprovo completamente este argumento.

Mesmo a prova de Gauss, que usa propriedades do tipo “topológico” não pareceria completamente rigorosa ao leitor moderno pois, embora o argumento seja altamente original, ele depende de determinar a interseção de duas curvas. A prova, porem, esta substancialmente correta e nos resulta totalmente satisfatória quando a parte “analítica” é feita com o rigor que a que hoje estamos acostumados e que seria introduzido no século seguinte. Ao longo de sua vida, Gauss deu mais três provas diferentes deste teorema. Estas e outras demonstrações hoje conhecidas podem-se ver num texto totalmente dedicado ao assunto.

Capitulo 3

A abstração em álgebra

3.1 Introdução

Pode-se dizer que o século XIX foi um dos períodos aureos da matemática e, em certo sentido, um dos mais revolucionários desta ciência. Ate o inicio deste século, a matemática era definida como a ciência da quantidade e das extensão, sendo estas expressões claras referencias a aritmética e `a geometria, respectivamente. Em 1829, Lobachevsky tornou publico o novo mundo da geometria não-euclidiana, liberando assim a geometria da dependência do mundo sensorial. A partir de 1830, com a publicação da obra de Peacock, a álgebra por sua vez, liberou-se de sua dependência da aritmética. ´E precisamente esta ´ultima historia que estudaremos neste capitulo.

A profunda mudança no caractere da álgebra se deu na Inglaterra, sob condições muito particulares. A disputa entre Newton e Leibinz pela prioridade na descoberta do calculo, em fins do século XVII e inícios do século XVIII, se extendeu rapidamente a todos os matemáticos da época. Os ingleses, naturalmente, respaldaram Newton enquanto os matemáticos do continente se alinharam com Leibniz. Isto criou uma separação entre ambas comunidades cientificas e elas seguiram caminhos diferentes.

Como o calculo de Leibniz usava um simbolismo mais adequado, foi mais fácil desenvolver este ramo da ciência no continente e assim, a historia nos ensina que, por um período de mais de um século, os desenvolvimentos significativos do calculo se deram na Europa continental.

O isolamento britânico levou a que seus matemáticos só trabalhassem naquilo que os interessava particularmente, não estando atrelados ao que acontecia no continente. Isso teve a conseqüência negativa de que o calculo se desenvolveu ali de forma bem mais vagarosa. Ainda, como utilizava o simbolismo mais pesado devido a Newton, ele era apresentado de uma forma tal que sua compreensão resultava difícil para os estudantes. Por outro lado, este mesmo isolamento teve, como conseqüência positiva, a grande originalidade dos trabalhos ingleses da época.

O apego à aritmética universal

Como já mencionamos, a aritmética tinha-se desenvolvido sobre bases que os matemáticos da época consideravem bem menos sólidas que as da geometria. Os números negativos eram definidos com quantidades menores do que nada ou como as quantidades obtidas pela subtração de uma quantidade maior de uma quantidade menor. Uma vez que a subtração era definida como a retirada de uma quantidade de outra, também esta segunda definição era obviamente auto-contraditoria. Tentava-se justificar estes números através de analogias com débitos, ou com diferentes sentidos numa reta.

No fim do século XVIII, dois professores da Universidade de Cambridge, Francis Masers (1731-1824) e William Frend, propuseram o abandono total dos números negativos, alegando precisamente a falta de uma definição adequada, o que fazia com que os resultados que envolviam estes números tivessem pouco valor e levantava duvidas quanto `a legitimidade da álgebra como ciência. A esse respeito, Frend escreveu:

Quando alguém não pode explicar os princípios de uma ciência sem referencia a metáforas, é provável que ele não tenha pensado profundamente no assunto.

Masers, em 1800, foi ainda mais enfático:

A ciência da álgebra ou aritmética universal foi desgraçada e tornada obscura, triste e difícil para os homens com gosto pelo raciocínio acurado e claro.

Eles propunham assim reduzir a álgebra à aritmética universal; isto é, a uma ciência onde as letras representam apenas números positivos e os sinais + e - apenas operações aritméticas. É claro que, rejeitando o uso dos números negativos rejeitavam também as possíveis raízes complexas das equações e, com isso, toda a teoria de equações desenvolvida no século XVIII que culminou no Teorema Fundamental da Álgebra, de Gauss, em 1799.

Masers argumentava, por exemplo, que equações do tipo Álgebra só tinham uma raiz. Ele considerou o exemplo concreto da equação Álgebra afirmando que só 3 era uma raiz e que o valor -5 não devia ser considerado. Por outro lado, observou que 5 é raiz de Álgebra e que

Álgebra

são afirmações diferente, que nao pode derivar das condições de um mesmo problema.

E claro que outros matemáticos da época relutavam em abandonar os números negativos, levando em consideração a sua aplicabilidade. Argumentavam que, em vez de abandona-los, era necessário procurar sua adequada fundamentação. Assim por exemplo Robert Woodhouse (1773-1827), um matemático e físico experimental da mesma Universidade de Cambridge, defendeu em 1801, perante a Royal Society, o seguinte ponto de vista:

Realmente, uma quantidade negativa abstrata é ininteligível, mas operações com quaisquer caráter ou sinais levam a resultados corretos. Tais operações devem ser validas em virtude de algum principio ou outro.

Em 1806, também Buee um imigrante francês que morava em Londres, sugiriu que existem dois tipos de álgebra:

A aritmética universal, uma linguagem onde os símbolos + e - representam unicamente as operação aritméticas de adição e subtração.

Uma longa matemática (une longue mathematique), ou seja, uma linguagem na qual os símbolos + e - representam também “qualidades”. Assim, um numero seria a combinação de uma quantidade e uma qualidade.

Desta forma, quando alguém diz que um numero é menor do que zero, isso faria sentido pois não é a quantidade que é menos do que nada, mas a qualidade que é inferior à nulidade e exemplifica:

Se meus débitos excedem meus ganhos, eu sou mais pobre do que se não tivesse ganhos nem débitos.

A álgebra abstrata

O processo que levou a introdução de um ponto de vista verdadeiramente abstrato em álgebra teve inicio em 1815, quando vários matemáticos da Universidade de Cambridge, como Charles Babbage (1792-1871), George Peacock (1791-1858) e John Herschel (1792-1878) fundaram a Analytical Society, uma sociedade cuja finalidade imediata era reformar o ensino do calculo, adotando as notações em uso no continente. Porem, sua contribuição fundamental foi repensar e discutir os fundamentos da álgebra.

Em 1830, Peacock publicou seu Treatise on Algebra onde tenta dar a esta disciplina uma estrutura lógica comparável à dada a geometria nos Elementos de Euclides; isto e, apresenta-la como o desenvolvimento abstrato das conseqüências de um certo conjunto de postulados. A obra, que fora ampliada a dois volumes ate 1845, marca o verdadeiro inicio do pensamento axiomático em álgebra. No primeiro volume, Peacock tenta exibir as leis fundamentais da aritmética, trabalhando apenas com números e dando aos símbolos + e - apenas o seu significado ordinário. No segundo volume, desenvolve uma “´Algebra Simbólica” e as mesmas regras são aplicadas a símbolos sem conteúdo especifico. Para ele, a álgebra era a ciência que trata das combinações de símbolos arbitrários cujo sentido ´e definido através de leis de combinação também arbitrarias. Na aritmética, as definições das operações determinam as regras. Na álgebra simbólica, são as regras que determinam o sentido das operações.

No inicio da obra, que ele pretendia que fosse perfeitamente acessível aos estudantes, argumentava que a aritmética universal de Masers e Frend não podia ser aceita no lugar da álgebra por ser a primeira muito restrita e haver, na segunda, grande quantidade de resultados e proposições de valor e consistência inquestionável. Também criticou o ensaio de Bouee, por considerar que apelava por demais `as interpretações geométricas e propunha soluções muito vaga.

Augusto de Morgan (1806-1871), na sua Trigonometry and Double Algebra, publicada também em 1830, assume o mesmo ponto de vista, deixando os símbolos sem significação preestabelecida e, como ele mesmo diz, letras como A e B poderiam representar, por exemplo, virtudes ou vícios, e os símbolos + e - recompensas ou castigos. De Morgan descreve suas colocações de um ponto de vista muito próximo das idéias modernas:

Com uma única exceção, nenhuma palavra ou sinal em aritmética tem um átomo de significado neste capitulo, cujo assunto são símbolos e suas leis de combinação, dando uma álgebra simbólica que pode tornar-se a gramática de cem álgebras diferentes e significativas

Embora Peacock e De Morgan tenham de fato explicitado o ponto de vista abstrato em álgebra, sua apresentação tem ainda uma limitação. Os axiomas que eles utilizam são aqueles abstraídos da aritmética. Eles nao perceberam que a escolha poderia ser feita livremente, tornando a álgebra independente da experiência aritmética, tal como a geometria não euclidiana tinha se tornado independente da experiência sensorial, com a adoção de axiomas que não são “verdades evidentes”. Este ´ultimo passo seria inspirado pelo desenvolvimento dos quaternios, devido a Hamilton, de que trataremos no próximo capitulo.

voltar 12345678avançar
Sobre o Portal | Política de Privacidade | Fale Conosco | Anuncie | Indique o Portal