Breaking News
QUESTION 1 You have a hybrid Exchange Server 2016 organization. Some of the mailboxes in the research department are hosted on-premises. Other mailboxes in the research department are stored in Microsoft Office 365. You need to search the mailboxes in the research department for email messages that contain a specific keyword in the message body. What should you do? A. From the Exchange Online Exchange admin center, search the delivery reports. B. Form the on-premises Exchange center, search the delivery reports. C. From the Exchange Online Exchange admin SY0-401 exam center, create a new In-Place eDiscovery & Hold. D. From the Office 365 Compliance Center, create a new Compliance Search. E. From the on-premises Exchange admin center, create a new In-Place eDiscovery & Hold. Correct Answer: E QUESTION 2 You have an Exchange Server 2016 organization. You plan to enable Federated Sharing. You need to create a DNS record to store the Application Identifier (AppID) of the domain for the federated trust. Which type of record should you create? A. A B. CNAME C. SRV D. TXT Correct Answer: D QUESTION 3 Your company has an Exchange Server 2016 200-310 exam Organization. The organization has a four- node database availability group (DAG) that spans two data centers. Each data center is configured as a separate Active Directory site. The data centers connect to each other by using a high-speed WAN link. Each data center connects directly to the Internet and has a scoped Send connector configured. The company's public DNS zone contains one MX record. You need to ensure that if an Internet link becomes unavailable in one data center, email messages destined to external recipients can 400-101 exam be routed through the other data center. What should you do? A. Create an MX record in the internal DNS zone B. B. Clear the Scoped Send Connector check box C. Create a Receive connector in each data center. D. Clear the Proxy through Client Access server check box Correct Answer: AQUESTION 4 Your network contains a single Active Directory forest. The forest contains two sites named Site1 and Site2. You have an Exchange Server 2016 organization. The organization contains two servers in each site. You have a database availability group (DAG) that spans both sites. The file share witness is in Site1. If a power failure occurs at Site1, you plan to mount the databases in Site2. When the power is restored in Site1, you Cisco CCNP Security 300-207 exam SITCS need to prevent the databases from mounting in Site1. What should you do? A. Disable AutoReseed for the DAG. B. Implement an alternate file share witness. C. Configure Datacenter Activation Coordination (DAC) mode. D. Force a rediscovery of the EX200 exam network when the power is restored. Correct Answer: C QUESTION 5 A new company has the following: Two offices that connect to each other by using a low-latency WAN link In each office, a data center that is configured as a separate subnet Five hundred users in each office You plan to deploy Exchange Server 2016 to the network. You need to recommend which Active Directory deployment to use to support the Exchange Server 2016 deployment What is the best recommendation to achieve the goal? A. Deploy two forests that each contains one site and one site link. Deploy two domain controllers to each forest. In each forest configure one domain controller as a global catalog server B. Deploy one forest that contains one site and one site link. Deploy four domain controllers. Configure all of the domain controllers as global catalog servers. C. Deploy one forest that contains two sites and two site links. Deploy two domain controllers to each site in each site, configure one domain controller as a global catalog server D. Deploy one forest that contains two sites and one site link. Deploy two domain controllers to each site. Configure both domain controllers as global catalog servers Correct Answer: C QUESTION 6 How is the IBM Content Template Catalog delivered for installation? A. as an EXE file B. as a ZIP file of XML files C. as a Web Appli cati on Archive file D. as a Portal Application Archive file Correct Answer: D QUESTION 7 Your company has a data center. The data center contains a server that has Exchange Server 2016 and the Mailbox server role installed. Outlook 300-101 exam anywhere clients connect to the Mailbox server by using thename outlook.contoso.com. The company plans to open a second data center and to provision a database availability group (DAG) that spans both data centers. You need to ensure that Outlook Anywhere clients can connect if one of the data centers becomes unavailable. What should you add to DNS? A. one A record B. two TXT records C. two SRV records D. one MX record Correct Answer: A QUESTION 8 You have an Exchange Server 2016 EX300 exam organization. The organization contains a database availability group (DAG). You need to identify the number of transaction logs that are in replay queue. Which cmdlet should you use? A. Test-ServiceHealth B. Test-ReplicationHealth C. Get-DatabaseAvailabilityGroup D. Get-MailboxDatabaseCopyStatus Correct Answer: D QUESTION 9 All users access their email by using Microsoft Outlook 2013 From Performance Monitor, you discover that the MSExchange Database\I/O Database Reads Average Latency counter displays values that are higher than normal You need to identify the impact of the high counter values on user connections in the Exchange Server organization. What are two client connections 400-051 exam that will meet performance? A. Outlook on the web B. IMAP4 clients C. mobile devices using Exchange ActiveSync D. Outlook in Cached Exchange ModeE. Outlook in Online Mode Correct Answer: CE QUESTION 10 You work for a company named Litware, Inc. that hosts all email in Exchange Online. A user named User1 sends an email message to an Pass CISCO 300-115 exam - test questions external user User 1 discovers that the email message is delayed for two hours before being delivered. The external user sends you the message header of the delayed message You need to identify which host in the message path is responsible for the delivery delay. What should you do? A. Review the contents of the protocol logs. B. Search the message tracking logs. C. Search the delivery reports 200-355 exam for the message D. Review the contents of the application log E. Input the message header to the Exchange Remote Connectivity Analyzer Correct Answer: E QUESTION 11 You have an Exchange Server 2016 organization. The organization contains three Mailbox servers. The servers are configured as shown in the following table You have distribution group named Group1. Group1 contains three members. The members are configured as shown in the following table. You discover that when User1 sends email messages to Group1, all of the messages are delivered to EX02 first. You need to identify why the email messages sent to Group1 are sent to EX02 instead. What should you identify? A. EX02 is configured as an expansion server. B. The arbitration mailbox is hosted 300-320 exam on EX02.C. Site2 has universal group membership caching enabled. D. Site2 is configured as a hub site. Correct Answer: A
Home / Biologia / Bioinformática

Bioinformática

PUBLICIDADE

Introdução

Com a realização de pesquisas envolvendo geneticistas e químicos surgiu à conclusão que o DNA era a molécula que armazenava a informação genética, em 1953, sua estrutura ficou conhecida pelo trabalho desenvolvido por Watson e Crick. Posteriormente surgiram métodos de seqüenciamento dos polímeros do DNA, permitindo o estudo das formas mais simples que o constitui. Por volta da década de 90, começaram a surgir seqüenciadores automáticos de DNA aumentando consideravelmente a quantidade de seqüências genéticas a serem armazenadas conseqüentemente exigindo cada vez mais recursos computacionais como armazenamento e interpretação dos resultados obtidos, surgia assim à bioinformática [Filho 2002].

Essa nova ciência segundo Filho (2002) envolve diversas áreas do conhecimento, tais como a engenharia de softwares, a matemática, a estatística, a ciência da computação, biologia molecular, etc. A dificuldade de comunicação dos profissionais dessas diferentes áreas criou a necessidade de um novo profissional que possuísse conhecimento para fazer a ligação dessas ciências o Bioinformata [Filho 2002, Silva 2003].

Como na evolução da genética também houve a evolução da informática o que fez com que surgissem diferentes áreas de estudo e técnicas.

Foram criados inúmeros grupos de pesquisas para serem usadas na bioinformática nas mais variadas aplicações como: Simulação em ambientes virtuais de organismos semelhantes aos reais analisando o seu comportamento e obtendo resultados antes só adquiridos através de testes feitos com organismos reais. Simulação citada no projeto ALIVE de Neves e Neto (2003); Projeto Alga de Marques e Neto (2002), que busca através de um ambiente virtual simular o comportamento de uma alga especifica frente a várias condições climáticas e outros fatores. Tem muitos outros projetos e grupos de estudo foram citados esses dois como exemplos. A inteligência artificial tem um importante papel na bioinformática, como em redes neurais onde através de algoritmos genéticos busca a melhor solução para um problema especifico como é o caso do projeto WOXBOT de Miranda (2004) onde faz a seleção de personagens mais bem adaptados em um ambiente virtual. Auxilia também na análise de dados como cita Costa (2003), que a inteligência artificial tem evoluído proporcionando análises cada vez mais completas dos demais dados biológicos.

Bioinformática no Brasil

Segundo Gerhardt (2001) a bioinformática teve seu pioneirismo com a vinda de Neshich de origem sérvia, onde foi o idealizador do projeto BBNet (BrazilianBioNet), uma rede de usuários da bioinformática, formada em 1992, que propiciou os primeiros contatos de cientistas brasileiros a programas de análise de seqüência de DNA de forma gratuita, por intermédio de um computador (servidor) da Embrapa Recursos Genéticos e Biotecnologia.

Depois desse projeto surgiram muitos outros como também a construção de núcleos especializados que realiza trabalhos específicos como traz a matéria de Levy (2002) onde divulga a construção do NBI (Núcleo de Bioinformática), um sofistica laboratório construído no prédio da UNICAMP. Que por meio de simulações feitas através de um software nacional, chamado de Sting, em computadores, permitirá o estudo do genoma estrutural e genoma funcional.

Foi criada também uma a AB3C (Associação Brasileira de Bioinformática e Biologia Computacional) que tem por objetivo promover a interação de vários especialistas de áreas relevantes como biologia, medicina, ciência da computação, etc. A bioinformática tem no Brasil vários projetos associados a grupos de estudos com objetivo em comum para tentar solucionar um problema específico como citado pelo Departamento de Engenharia de Sistemas Eletrônicos – PSI/EPUSP onde há 5 grupos onde cada um busca uma solução para um problema específico [Miranda 2004, Marques 2002 e Neves 2003].

Outro programa criado que promoveu a disseminação da bioinformática no Brasil foi a rede Onsa (sigla, em inglês, para Organization for Nucleotide Sequencing and Analysis) essa rede permitia o estudo virtual e dinâmico com as instituição associadas. Vários centros de pesquisa foram criados a partir dessa rede espalhando por diversas instituições em diversos estados brasileiros como na Unicamp, na USP, na Unesp, no Instituto Ludwig, no Laboratório Nacional de Computação Científica, no Rio de Janeiro, na Universidade Federal de Pernambuco, na Federal de Minas Gerais e na Federal do Rio Grande do Sul [Vogt 2003]. E uma das provas que o Brasil esta se destacando na Bioinformática no cenário Internacional foi à realização do Congresso Internacional de Bioinformática segundo a Embrapa (2006) em 2006 foi em Fortaleza e segundo MAPA (2007) em 2007 foi em São Paulo.

Esse encontro promove a interação entre diversas comunidades cientificas na área de biologia computacional e também estudantes onde podem trocar idéias e aperfeiçoar seus trabalhos [Embrapa 2006].

Técnicas Utilizadas na Bioinformática

Segundo o Mundo Educação são utilizadas técnicas de inteligência artificial no ensino do computador que será utilizado na bioinformática como redes neurais artificiais, máquinas de vetores suporte, árvores de decisão, algoritmos genéticos, algoritmos de agrupamento, cadeias escondidas de Markov (HMMs).

De acordo com Russell (2004) será apresentada uma breve explicação do que consistem algumas técnicas de Inteligência Artificial que são utilizadas em bioinformática como:

Redes Neurais: São funções não-lineares complexas com muitos parâmetros. Seus parâmetros podem ser aprendidos a partir de dados ruidosos, e elas são usadas em milhares de aplicações;
Máquinas de Vetores de Suporte:
Utiliza algoritmos de treinamento eficiente e podem representar funções complexas não-lineares;
Cadeias Escondidas de Makov:
Fornece uma estimativa razoáveis das probabilidades posteriores verdadeiras em uma rede e podem lidar com redes muitos maiores do que os algoritmos exatos;
Árvores de Decisão:
Podem representar todas as funções booleanas. Uma árvore de decisão alcança sua decisão executando uma seqüência de testes.
Algoritmos Genéticos:
É uma forma de busca aleatória onde os sucessores são gerados a partir de dois estados pais, em vez de serem gerados modificados de um único estado.
Algoritmos de Agrupamento:
Faz os agrupamentos de dados de padrões

Aplicação

O elevado número de informações geradas todos os dias pelo mapeamento de genes necessitam ser armazenadas de forma sistemática em bancos de dados computacionais, servindo de base para estudos médicos e biológicos através da Bioinformática [Leal, 2008]. Segundo Silva (2004) essa elevada quantidade de informações precisa ser cuidadosamente decifrada e com a organização e decodificação, podem-se encontrar informações muito valiosas sobre os mecanismos biológicos. Para isso, é necessária uma adaptação dos Sistemas Gerenciadores de Banco de Dados para poderem suportar os dados gênicos (de genoma), a fim de se fazer um armazenamento e busca destes dados da maneira mais excelente possível [Leal]. Ainda segundo Leal (2003), a maioria dos bancos de dados biológicos, consiste em longas cadeias de caracteres para representar as bases do DNA. OS bancos de dados normalmente são usados para fins administrativos, e poucos possuem a capacidade de lidar com dados complexos, como dados multimídia ou dados genéticos (sucessão de genes).

Uma das metas da Bioinformática é agilizar a busca dessas informações, localizando sinais prováveis de genes e produtos de genes de seqüências de DNA ainda não caracterizadas experimentalmente. Mas para isso não basta apenas os conceitos de métodos rápidos de busca, é preciso uma base biológica para compreensão das informações a serem relacionadas e extraídas [Silva]. Leal (2003) descreve que para revolver este problema, deve ser feita uma padronização de tipos de dados e métodos que os bancos de dados devem suportar, relacionando-os e descrevendo suas funcionalidades. Surge assim necessidade de se possuir diferenciadas formas de armazenamento, tratamento, acesso e pesquisa dos dados, para que se consiga trazer a informação da melhor maneira desejada possível.

A primeira medida a ser tomada é adotar Sistemas Gerenciadores de Banco de Dados com suporte para a criação de novos tipos de dados e métodos.

Este banco de dados extensível dará o apoio necessário às necessidades do sistema para definir novos tipos de dados que sejam capazes de: criar entidades de domínio como sucessão genotípica; fazer uso de operadores definidos pelo usuário; criar indexação de domínio específico, fornecendo apoio para índices específicos de dados biológicos e otimizar a extensibilidade, fazendo assim uma ordenação inteligente dos predicados em questão, envolvendo tipos de dados definidos pelo usuário [Leal, 2003].

Depois disto, adotar sistemas envolvendo Data Warehouses (Armazéns de Dados), pois estes são constituídos tipicamente de 5 camadas: as fontes de dados, que contém os dados a serem integrados ao Data Warehouse através dos Wrapper’s (analisadores gramaticais de dados), os mediadores (que traduzem os dados para a representação do Data Warehouse), o próprio Data Warehouse, que é um grande repositório de dados, geralmente um banco de dados relacional, que possui uma visão consistente dos dados provenientes das fontes de dados, e finalmente os usuários, que interagem com o sistema através de uma interface. Características presentes Oracle SQL Server [Leal, 2003]

Segundo Critchlow, o desafio para a criação de um Data Warehouse para o ambiente da bioinformática está no fato de que se deve desenvolver uma infra-estrutura flexível o bastante para controlar a natureza dinâmica do domínio, pois fontes de dados para aplicações científicas são extremamente dinâmicas.

Sempre que uma fonte de dados muda seus dados, o Wrapper e o mediador devem ser atualizados para que estas atualizações sejam espelhadas no Data Warehouse. Uma terceira abordagem é a utilização de bases de dados XML, pois através da construção de documentos de definição XML permite fazer conversões entre bancos de dados que se utilizam de diferentes tecnologias de XML. A grande preocupação neste caso é de como integrar as diversas bases de dados XML, já que os dados biológicos não possuem uma estrutura padrão, pois os dados podem variar de tipo de uma base para outra [Leal, 2003]. Um outro ponto a ser tratado são os Bancos de Dados Públicos sobre Bioinformática. São BDs envolvendo seqüencial de nucleotídeos, aminoácidos ou estruturas de proteínas cada uma delas podendo ser classificadas em bancos de seqüências primárias ou secundárias.

Os primários são formados pela disposição direta das seqüências de nucleotídeos, aminoácidos ou estruturas protéicas sem qualquer processamento ou análise.

Dentre os principais temos: GenBank, EBI (European Bioinformatics Bank), DDBJ (DNA Data Bank of Japan). Estes bancos são membros do INSDC (International Nucleotide Se-quenceDatabase Colaboration) onde cada um deles permite a submissão individual de seqüências de DNA e trocam informações diárias entre si. Já os bancos secundários são derivados dos primários. Eles contêm informações contidas nos bancos primários, mas que, por exemplo, foram coletadas informações de seqüências protéicas e associadas a informações sobre função, domínios funcionais, proteínas homólogas e outros.

Quanto à aplicação da Inteligência Artificial na Bioinformática, encontramos exemplos como o da Lusa Universidade do Minho onde existem estudos para fazer a leitura e o armazenamento em bases de dados de estruturas genéticas como o ADN ou o genoma humano ainda testar a possibilidade de melhoria de métodos de análise multidimensional de bases de dados [Lusa]. Segundo Pedro Henriques “A aplicação da inteligência artificial, em bases de dados com vários milhões de registros, simplifica as conclusões sobre hábitos de consumo, sazonalidade, entre outros, o que é de grande valia para a tomada de decisões”.

Seguindo essa analogia encontramos na revista Reciis sobre Biomarcadores e a Proteômica sobre A identificação de painéis de biomarcadores, esta técnica desafia o campo da prote-ômica exigindo cada vez mais sensibilidade e poder de quantificação que os das técnicas existentes. Este problema atinge também a Inteligência Artificial no setor de reconhecimento de padrões. Onde maior parte dos dados obtidos são limitados devido ao baixo número de amostras disponíveis para pesquisa. “Outros fatores limitantes são: o custo dos equipamentos e reagentes, o elevado número de parâmetros por amostra, grande variabilidade entre amostras de mesma classe, limitações na reprodutibilidade das técnicas proteômicas para detecção e quantificação simultânea de milhares de proteínas, e a falta de conhecimento de uma função de densidade de probabilidade que descreva adequadamente a variação do nível de expressão de cada proteína para o caso em estudo.” Para tornar eficientes as buscas e análises de bancos de dados podem ser utilizadas técnicas de inteligência Artificial e sistemas desenvolvidos para realizar mineração e analises de dados em problemas no qual pretende se obter uma solução, como foi o caso da Joana S. de P. Gonçalves (2007), ganhadora do Prêmio Nacional de Trabalhos de Licenciatura, atribuído pela associação portuguesa para inteligência artificial, que desenvolveu o sistema BiGGEsTS.

Segundo Gonçalves (2007) o BiGGEsTS (Biclustering Gene Expression TimeSeries) consiste numa ferramenta de análise, manipulação de diversos conjuntos de dados de expressões genéticas.

As suas funções principais são:

Realiza a manipulação de dados de expressões genéticas em simultâneo;
No sistema foram aplicados diversos algoritmos de pré-processamento (filtragem de genes, preenchimento de valores em falta, normalização, smoothing e discretização), algoritmos de biclustering e cálculo de funções biológicas significativas para análise dos dados;
O sistema permite a visualização dos dados ao decorrer do processo de manipulação, utilizando-se representações gráficas inseridas posteriormente, também é feito uma analise detalhada dos resultados obtidos.

Considerações Finais

Neste trabalho foi apresentado como se deu o surgimento da bioinformática e a interação entre diversas áreas do conhecimento para que suprisse a necessidade eminente da área de biologia molecular, uma área que se encontra em constante desenvolvimento.

Foi visto também que o Brasil se destacou com pesquisas referentes à área de bioinformática trazendo eventos relevantes como congressos internacionais

Fazendo uma breve descrição sobre bioinformática percebeu-se utilização de técnicas de inteligência artificial para determinados problemas, sendo estes constituídos das mais variadas formas. Citamos dois exemplos de aplicação da Inteligência Artificial, uma utilizada em bancos de dados devido a necessidade de análise e tratamento antes do armazenamento dos dados gerados pelas pesquisas biológicas surgindo assim banco de dados robusto para suportar a grande quantidade de informações. Através de suas técnicas foi criado um sistema de relevante para a área de biologia molecular desenvolvido pela Joana Sofia de Pinho Gonçalves.

Assim ao final deste trabalho percebemos a grande abrangência da bioinformática, pois faz análises completas sobre os genes utilizando as mais diversas formas de computação existentes, tentando sempre obter uma solução ótima para os dados que se deseja manipular, trazendo benefícios de uma maneira geral..

Bruno Ferreira Rezende

Diogo Santos da Silva

Referências

AB3C, Associação Brasileira de Bioinformática e Biologia Computacional. Incentivo a Compreensão da importância da Biologia Computacional no Brasil e na América Latina. Disponível em: < http://www.ab3c.org/>. Acessado em: 12 de julho de 2008. ALGOSOBRE. Biologia: Projeto Genoma. Disponível em: < http://www.algosobre.com.br/biologia/projeto-genoma.html>. Acessado em: 12 de julho de 2008.
ARBEX, Wagner, COSTA, Vítor Santos, SILVA, Marcos Vinicius G. Barbosa da. Bioinformática como Ferramenta nas Pesquisas Atuais. Disponível em: < http://www.genmelhor.ufv.br/materiais/III%20egm/textobioinformatica.pdf>. Acessado em: 11 de julho de 2008.
COSTA, Luciano da F.. Neurobioinformática: quando mentes e genes se encontram. Disponível em: < http://www.comciencia.br/reportagens/bioinformatica/bio11.shtml>. Acessado em: 11 de julho de 2008.
CRITCHLOW, T.; MUSICK, R.; SLEZAK, T. An Overview of Bioinformatics Research at Lawrence Livermore National Laboratory. Califórnia: Department of Energy by University of California Lawrence Livermore National Laboratory, 2000. EMBRAPA. Brasil se destaca em congresso internacional de bioinformática. Disponível em: < http://www.cnptia.embrapa.br/files/agrinforma04_06.pdf>. Acessado em: 11 de julho de 2008.
GERHARDT, Isabel. “Ferrão” ajuda a achar função de proteína. Disponível em: < http://www.cbi.cnptia.embrapa.br/press/fsp.html>. Acessado em: 12 de julho de 2008.
GONÇALVES, Joana Sofia de Pinho, MADEIRA. Biclustering Gene Expression TimeSeries. Disponível em:< http://www.inesc-id.pt/ficheiros/publicacoes/4309.pdf>. Acessado em: 14 de julho de 2008.
FILHO, Fernando Camargo, PROSDOCIMI, Francisco, CERQUEIRA, Gustavo Coutinho, BINNECK, Eliseu, SILVA, Acácia Fernandes, REIS, Adriana Neves dos, JUNQUEIRA, Ana Carolina Martins, SANTOS, Ana Cecília Feio dos, JÚNIOR, Antônio Nhani, WUST, Charles I., KESSEDJIAN, Jayme Lourenço, PETRETSKI, Jorge H., CAMARGO, Luiz Paulo, FERREIRA, Ricardo de Godoi Mattos, LIMA,
Roceli P., PEREIRA, Rodrigo Matheus, JARDIM, Sílvia, SAMPAIO, Vanderson de Souza, FOLGUERAS-FLATSCHART, Áurea V.. Bioinformática: Manual do Usuário. Disponível em: < http://www.biotecnologia.com.br/revista/bio29/bioinf.pdf>. Acessado em: 11 de julho de 2008.
LEAL, Eduardo, WIECZOREK, Emilio Mario. Caminhos e Tendências do uso de Banco de Dados em Bioinformática. Disponível em: < http://www.wieczorek.com.br/publicacoes/artigo_IVencoinfo.pdf>>. Acessado em: 11 de julho de 2008.
LEAL, 2003, Eduardo, WIECZOREK, Emilio Mario. Padrões de Tipos e Métodos para Banco de Dados em Bioinformática. III Congresso Científico do CEULP/ULBRA 2003. Disponível em: <www.wieczorek.com.br/publicacoes/art_IIICongressoUlbra.pdf>. Acessado em: 11 de julho de 2008.
LEVY, Clayton. Instalado laboratório ‘sem paredes’ no campus. Embrapa usa bioinformática na produção de novos produtos e na descoberta da cura de doenças grave. Disponível em: <http://www.unicamp.br/unicamp/unicamp_hoje/ju/outubro2002/unihoje_ju196pag9 b.html>. Acessado em: 12 de julho de 2008.
LUSA, Agência. Grupo de Inteligência Artificial UM investiga soluções informáticas. Disponível em: <http://www.researchcafe.net/content/view/857/2/>. Acessado em: 14 de julho de 2008.
MAPA. São Paulo sedia congresso internacional de bioinformática. Disponível em: < http://www.cnptia.embrapa.br/content/s-o-paulo-sedia-congresso-internacional-debioinform-tica.html>. Acessado em: 12 de julho de 2008. MARQUES, Eder Antonio Rangel, NETTO, Marcio Lobo. Projeto ALGA: Artificial Life with Genethic Algorimts. Disponível em: < http://www.lsi.usp.br/~lobonett/publications/2001.
11_SPUSP_ComputacaoCognitiva-CFV.pdf> . Acessado em: 11 de julho de 2008. MIRANDA, Fabio Roberto, JUNIOR, João Eduardo Kogler, HERNANDES, Emilio Del Moral, NETTO, Marcio Lobo. Projeto WOXBOT: Wide Open Extensible Robot. Disponível em: < http://www.lsi.usp.br/~lobonett/publications/2001.
11_SPUSP_ComputacaoCognitiva-CFV.pdf> . Acessado em: 11 de julho de 2008. MUNDO EDUCAÇÃO. Bioinformática. Disponível em: < http://mundoeducacao.uol.com.br/informatica/bioinformatica.htm>. Acessado em: 12 de julho de 2008.
NEVES, Rogério Perino de Oliveira, NETTO, Marcio Lobo. Projeto ALIVE: Artificial Life in Virtual Environments. Disponível em: < http://www.lsi.usp.br/~lobonett/publications/2001. 11_SPUSP_ComputacaoCognitiva-CFV.pdf> . Acessado em: 11 de julho de 2008.
RUSSELL, Stuart, NORVIG, Peter. (2004). Inteligência Artificial. SILVA, Walkiria Luckwu de Santana. Análise in silico de uma matriz DRE na seqüência promotora de genes da Levedura Saccharomyces cerevisiae. Disponível em < http://biolab.cin.ufpe.br/team/dissertacao_wlss.pdf> Acessado em 05 de junho de 2008. SOARES, Edson. Profissão do futuro: bioinformata vive entre bits e células. Disponível em: . Acessado em: 12 de julho de 2008.

Fonte: www.merit.unu.edu

Bioinformática

A bioinformática é um campo das ciências biológicas que está em rápido crescimento e está sendo desenvolvida para atender à necessidade de manipular-se com grandes quantidades de dados genéticos e bioquímicos.

Estes dados, originados a partir do esforço individual de vários pesquisadores, estão relacionados entre si através de uma origem comum: as células dos organismos vivos. Para compreender a relação entre estas informações fragmentadas oriundas das diversas áreas da Biologia (tais como Biologia molecular, bioquímica estrutural, enzimologia, Biologia molecular, fisiologia e patologia), a bioinformática usa o poder computacional para catalogar, organizar e estruturar estas informações em uma entidade compreensiva e extremamente importante para a Biologia. Estas entidades são reflexões da organização celular da vida e seu denominador comum que é a evolução dos seres vivos a partir de uma forma ancestral comum.

Devido o fato da bioinformática ser ainda uma ciência recente ainda não se fez outra definição diferente ou mais precisa. Geralmente ela é referida como tendo a tarefa de organizar e analisar dados incrivelmente complexos resultantes de modernas técnicas de Biologia molecular e bioquímica. Para muitos a bioinformática é uma importante ferramenta para a compreensão de como as informações contidas nos genes são refletidas em características fisiológicas, como inteligência, crescimento dos cabelos ou susceptibilidade ao câncer. De uma forma geral, a bioinformática é apresentada como sendo a ciência da criação e manutenção de base de dados (ou Bancos de Dados) e eventualmente a simulação de fenômenos dos organismos vivos. A Bioinformática se baseia na premissa de que existe um relacionamento hierárquico entre as estruturas dos genes, seu arranjo em relação ao genoma, a função das proteínas e as interações entre as proteínas em um organismo resultando em energia, metabolismo, reprodução e forma.

Os genes são as unidades hereditárias dos seres vivos. Sendo assim, a fidelidade das cópias das informações moleculares contidas nos genes é crucial para a viabilidade dos organismos. Contudo, níveis residuais de mutações são igualmente necessários para sua evolução e enriquecimento dos conjuntos de genes em populações. A partir da manipulação genética é possível expressar as informações contidas nas seqüências de bases de um ou mais genes e daí se comparar às propriedades esperadas com aquelas apresentadas pelas proteínas em relação à forma e função. A tecnologia do DNA recombinante pode então ser utilizada para sintetizar grandes quantidades de proteínas para posterior análise bioquímica e assim se confirmar às formas e funções previstas a partir das seqüências nos genes. A clonagem, o sequenciamento e a localização cromossômica são 3 aspectos bastante inter-relacionados necessários para a compreensão da Biologia molecular de um gene e seu produto, a proteína. A Biologia molecular proporciona a base para a investigação do genótipo através da Bioinformática.

Durante os primeiros anos do século 20, os bioquímicos utilizaram a química orgânica para descobrir e montar vias metabólicas, estudar a cinética das enzimas e determinar as relações entre estas vias e as doenças hereditárias. Vale ressaltar que tudo isto foi realizado sem nenhuma técnica de Biologia molecular, sem nenhuma informação sobre a estrutura das proteínas e em muitos casos sequer se sabia que eram os ácidos nucléicos as unidades hereditárias da vida e não as proteínas. Da mesma forma que a química foi útil para os bioquímicos no passado, e a Biologia molecular esta sendo hoje em dia, a bioinformática, através dos conhecimentos gerados a partir das bases de dados e das simulações também será bastante útil para os biocientistas no futuro.

A Internet e a Publicação científica

Não só apenas as mudanças nas técnicas bioquímicas influenciaram na produtividade e no sucesso da bioquímica mas, sobretudo, a interação entre os cientistas que através de esforços coletivos ou cooperativos buscaram realmente superar o esmagador e ao mesmo tempo tentador trabalho que havia pela frente.

Tradicionalmente a descoberta de vias metabólicas ou o sequenciamento de genes era conduzido por cientistas em trabalhos individuais usando uma abordagem clone após clone.

A ampla divulgação das novas descobertas e desenvolvimento de novas técnicas envolvem o livre acesso a informações que estão sob forte pressão do poder econômico. Para que o fluxo destas informações seja rápido, a Internet aparece como uma ferramenta vital para os cientistas, porque ela permite a proliferação e o compartilhamento de grande quantidade de informações contidas em bancos de dados centralizados.

O fluxo de informações científicas através da Internet proporciona 3 grandes vantagens para os cientistas: primeira, proporciona o acesso à informação para qualquer um que possua um computador conectado a Internet e um browser (navegador), sendo esta uma excelente forma de democratização da informação. Em segundo lugar, as informações armazenadas em bancos de dados centralizados apresentam redundância em vários graus. Isto ocorre devido ao fato de que vários pesquisadores podem contribuir com a mesma informação para o banco de dados. Por conseguinte o acesso a estas informações pela Internet proporciona um amplo e eficiente controle de qualidade para as seqüências armazenadas. Em terceiro lugar, as informações armazenadas nos bancos de dados a respeito de um determinado organismo fornecem valiosas informações que poderão ajudar os cientistas a descobrirem e compreenderem várias vias metabólicas de outros organismos através da comparação de genes homólogos. Por exemplo, na tentativa de curar doenças humanas, muitos genes envolvidos com várias vias metabólicas importantes para estas doenças foram estudados em leveduras. Esta abordagem se fundamenta na relação existente entre todos os seres vivos baseado na evolução. Assim surge uma nova abordagem da Biologia, a genômica comparativa entre espécies lineares.

O lançamento do Projeto Genoma Humano no final dos anos 80 (e muitos projetos genomas de outros organismos) foi um evento decisivo para o desenvolvimento da bioinformática. Os biologistas moleculares que participam do projeto genoma não conseguem ir muito longe na pesquisa em seqüências lineares inteiras devido a limitações técnicas. Sendo assim, eles simplesmente produzem bits de milhares de pedaços pequenos das seqüências de DNA que serão posteriormente montados como um gigantesco quebra-cabeças, dando origem a seqüência genômica completa. A bioinformática é a ferramenta analítica que eles precisam para ajudá-los a montar a seqüência genômica e finalmente revelar a informação biológica relacionada a esta seqüência. A informação genômica obtida é bastante relevante , porque a função de um gene não está apenas na seqüência de codificação para uma proteína, mas também na organização destes genes nos genomas. Os organismos não usam os genes de forma isolada, mas sim em grupos. A compreensão de como o padrão de atividade destes genes é controlado durante o ciclo de vida de um organismo ainda está longe de ser totalmente compreendida pelos biologistas. Cada uma das células de um organismo pluricelular contém um pacote completo de genes, mas apenas uma pequena parte é utilizada pela célula (a maioria dos genes que nunca serão utilizados é inativada). A combinação de genes ativados numa célula define seu destino biológico. Isto é conhecido como diferenciação celular e, normalmente é um processo irreversível durante a vida de uma célula. A genômica funcional é uma conseqüência direta da informação acumulada nas seqüências genômicas e da organização destas dentro do genoma. Através da análise dos padrões de atividade dos genes nas células, tecidos e órgãos, se sabe agora a localização precisa no genoma de muitas seqüências relacionadas a importantes questões médicas. Devido ao enorme potencial econômico destes achados científicos, como o desenvolvimento de novas drogas, os interesses comerciais estão fortemente relacionados a estes protejo genoma e as brigas pelos direitos de patentes das seqüências de DNA ainda desconhecidas tem sido comparada à corrida do ouro no século 19.

Genômica e Proteômica

O esforço dos biólogos moleculares para sequenciar DNA em suas pesquisas nas universidades com interesse em diversos aspectos da Biologia celular e bioquímica resultou em uma coleção aleatória de seqüências de genes distribuídos em vários bancos de dados públicos. A vantagem da abordagem gene a gene é que ela já traz consigo a informação sobre a função associada com o gene. Por outro lado, a abordagem de sequenciar maciçamente genomas completos produz um acumulo sistemático de seqüências de DNA das quais não se tem nenhum conhecimento sobre sua fisiologia e função, pondo a Biologia molecular de ponta-cabeça. Tradicionalmente os cientistas precisavam fazer uma varredura de linhagens inteiras de células ou tecidos animais para identificar um novo gene (através da técnica de Northern Blot). Agora eles podem fazer essa varredura eletronicamente nos banco de dados públicos para a descoberta de novos genes ou fragmentos de genes (Northen eletrônico). Isto gerou um excelente atalho em relação ao método tradicional de isolamento de mRNA e sequenciamento de proteínas que eram necessários para se obter às seqüências de DNA. A sistemática de detecção e anotação de proteínas analisadas por gel de eletroforese bidimensional (proteômica) fornece informações relevantes sobre a fisiologia permitindo a detecção de novas e importantes proteínas associadas com o desenvolvimento, com o envelhecimento e com as doenças. Esta informação é fundamentalmente importante para se compreender como a informação genética é lida e implementada no desenvolvimento e no funcionamento de um organismo viável.

Muitos cientistas acreditam que os estudos das seqüências completas obtidas a partir dos modernos projetos de sequenciamento genético, irão contribuir muito para uma melhor compreensão da Biologia dos organismos. Outra contribuição importante está relacionada a grande quantidade de DNA que não é codificado em muitos organismos. Este DNA, até bem pouco tempo era desconhecido e não se sabia sua função. O conhecimento destas seqüências irá indicar, no futuro, o caminho a ser seguido pelos cientistas no sentido desta descoberta. A promessa dos projetos genoma é a compreensão da vida!

Será que o DNA é a única forma de armazenamento de informação que é herdada? Não é tão simples afirmar que toda a informação herdada está unicamente na seqüência de DNA, pois devido o fato do mesmo ser incapaz de se replicar sozinho fora do ambiente celular, se faz necessário que, de alguma forma, o DNA seja lido. Na célula esta leitura é feita por proteínas. A organização cromossômica, a interação e o arranjo dos complexos DNA/proteínas também são parte da informação herdada, não apenas a seqüência do DNA. Os banco de dados estão se expandindo muito rapidamente, alguns são atualizados diariamente para acomodar dados novos e disponibiliza-los para a comunidade científica. De abril de 1988 até o final de 1999 os projetos genoma cobriram 83 espécies com 21 projetos completados (predominantemente microorganismos) e no ano 2000 existiam 62 projetos em andamento. Estes projetos genoma são realizados através da clonagem automática por PCR (polimerase chain reaction) ou reação em cadeia da polimerase, que amplifica o DNA e pelos sistemas de sequenciamento automático. Para a reconstrução dos espaços vazios (gap-free) e união das seqüências contíguas (contigs) oriundas da fragmentação aleatória dos cromossomos (shotgun) são utilizados softwares especiais que, realizam esta função em toda a seqüência do genoma base por base.

Inicialmente, a bioinformática havia sido uma colaboração entre diferentes grupos de pesquisas em diferentes países. Hoje a bioinformática está sendo transformada em uma ciência independente graças ao advento dos bancos de dados centralizados, a comunicação via Internet, e aos projetos genoma que impulsionam o incrível aperfeiçoamento das técnicas de clonagem e sequenciamento. Atualmente, a ciência tem sido, considerada um excelente negócio e, conseqüentemente, muitas organizações públicas e privadas têm sido fundadas com o objetivo de sequenciar genomas completos, mapear todos os genes e criar bancos de dados que relacionem às seqüências com a estrutura e função celular.

Computação em Biologia e Medicina

A bioinformática utiliza como ferramentas a matemática aplicada e a computação. A Biologia molecular de hoje seria impossível sem os recursos de bioinformática, tais como o armazenamento, distribuição e atualização das informações, as análises estatísticas, a modelagem de dados e a simulação de fenômenos biológicos em computador. Pesquisas e tratamentos médicos, neurobiologia e o uso de sofisticados equipamentos de laboratório seriam impossíveis sem os computadores. A medicina moderna utiliza muitos equipamentos analíticos e a realidade virtual para ajudar os médicos em seus diagnósticos, como na inserção de sondas miniaturizadas no interior de vasos e na realização de delicadas técnicas de microcirurgias. A neurobiologia está começando a mapear a anatomia cerebral e a composição celular, assim como os projetos genoma estão mapeando os cromossomos. A neuroinformática também é um novo e emergente ramo da bioinformática. Ela surgiu através do esforço colaborativo entre neurologistas, (cientistas que estudam cognição) e psicólogos. O cérebro e os neurônios estão sendo encarados como um sistema complexo que serve de modelo para o desenvolvimento de redes neurais de computadores, devido à forma com que os neurônios trabalham. Algoritmos genéticos e raciocínio não linear atualmente têm sido utilizados para o desenvolvimento de inteligência artificial e evolução computacional. (Veja: The Genetic Algorithms Archive – um arquivo mantido por Alan C. Shultz no Centro para pesquisa aplicada em Inteligência artificial – http://w.aic.nrl.navy.mil/galist/).

Algoritmos Computacionais

Os computadores são essenciais para o processamento de grandes quantidades de dados em tempo hábil para seu estudo. Contudo, os computadores precisam de instruções, processo chamado de intervenção humana. Este processo de instrução analítica humana pode demandar muito tempo para resolver um problema usando o computador. Atualmente muitos dos processos automatizados têm como objetivo ensinar os computadores a tomarem decisões num determinado futuro (como o reconhecimento do contexto de um problema). Sistemas inteligentes são programas que realizam determinadas tarefas que requerem enorme poder computacional. As situações da vida real nunca são totalmente reprodutíveis para os computadores comuns e muitas decisões baseadas atualmente na intervenção humana estão sendo projetadas para serem manipuladas por redes neurais (Neural Networks –NNs) que são sistemas que possuem a habilidade de aprender. As redes neurais embora sejam uma boa promessa para o futuro, ainda são difíceis de se aplicar de forma bem sucedida em problemas relativos a manipulação de símbolos e memória. Além disso não existe um método de treinamento de NNs que permita, de forma mágica, que elas criem alguma informação que não esteja contida nos dados previamente informados (Neural Network FAQ; ftp://ftp.sas.com/pub/neural/FAQ.html ). Alguns algoritmos podem ser desenvolvidos para funcionarem de forma eficiente em computadores que respondem questões repetitivas onde os dados informados e obtidos variam constantemente e podem ser gerados e ajustados pelo próprio processo como num feedback.

O poder dos computadores é inegável. A facilidade de se escrever um texto em um processador de texto, por exemplo, se tornou uma ferramenta tão popular que hoje em dia pode ser considerada indispensável. Embora a formatação de um texto possa ser feita em questão de segundos, a facilidade de se mudar o layout do texto e das figuras tem aumentando em grande quantidade o desperdício de papel, simplesmente porque nós ainda queremos ver como vai ficar o produto final! Por outro lado às várias cópias produzidas das várias versões de um texto podem ser economizadas pelas versões eletrônicas vistas no próprio monitor. Corretores ortográficos e gramaticais são bons exemplos de um simples algoritmo que pode fazer uma medida analítica da linguagem. Uma das armadilhas dos corretores ortográficos está na leitura de uma determinada palavra dentro de um contexto, o computador não pode encontrar um erro ortográfico se a palavra estiver correta para um outro contexto (por exemplo: conserto e concerto). A habilidade da mente humana em analisar e reconhecer corretamente, falas, estilos e gramática não é reproduzida satisfatoriamente pelos computadores porque mentes e computadores trabalham diferentemente. O funcionamento da correção ortográfica é muito parecido com a análise de dados científicos e sua subseqüente interpretação quando feito pelos computadores, mas apenas sob o restrito controle da mente humana.

Os computadores são excelentes ferramentas para soluções numéricas (análises e simulações), controle de máquinas, edição e busca de caracteres em textos, busca de relação entre dados e gerenciamento de base de dados. As ultimas três aplicações são cruciais para a bioinformática.

Diferentes tipos de computadores para diferentes tarefas

Os computadores pessoais (PCs) são multifacetados e são usados para várias tarefas como processamento de texto, planilhas de cálculo, apresentações e acesso a Internet. Com softwares especializados também podem controlar equipamentos de laboratório como o pClamp da Axon Instruments (http://w.axon.com/) um software aplicativo largamente usado em eletrofisiologia para o controle e medida da atividade elétrica em neurônios, na medida da concentração de íons, para analisar os padrões de hibridização de fragmentos de DNA, para guiar microeletrodos em neurocirurgia funcional e no diagnóstico e monitoramento de distúrbios do movimento (ex.: Mal de Parkinson). A versatilidade, velocidade e o aumento do poder computacional dos PCs em redes locais, têm guiado os cientistas no trabalho com modelagem molecular e alinhamento de múltiplas seqüências de DNA (evolução molecular) independentemente da existência de supercomputadores. Os laboratórios podem ser equipados com várias opções de interfaces com PCs que ajudam nas pesquisas em aplicações que atendam as necessidades específicas dos experimentos.

Estima-se que apenas 1% de todos os microprocessadores no mundo estejam nos PCs. Os outros 9% estão envolvidos em muitos outros produtos espalhados pelo mundo, como aeronaves, sistemas de refrigeração e aquecimento, instrumentos de laboratório, sistemas de segurança e outros dispositivos. Estes processadores são comumente referidos como “firmware”, que são chips que tem como função especial realizar tarefas sem a necessidade de programação.

A ciência requer o uso de muitos equipamentos que usam processadores, como cromatógrafos a gás, balanças computadorizadas e espectrofotômetros. Os espectrofotômetros são usados para ler o espectro de absorção luminosa de diferentes comprimentos de onda, incluindo medidas em tempo real para o monitoramento de mudanças na composição química de soluções. Os cromatógrafos fazem a separação de misturas moleculares como componentes individuais de acordo com seu tamanho e solubilidade. Estes equipamentos são controlados por microprocessadores construídos especificamente para este fim, porém com interfaces para computadores remotos. Em geral os microprocessadores são acessíveis através de pequenas telas que mostram uma ou mais linhas de código ou comando de texto que pode ser digitado ou selecionado a partir de um menu. Eles funcionam essencialmente como caixas eletrônicos, onde um pequeno teclado pode ser usado para acessar sua conta bancária, você interage com o computador que realiza a transferência de seu dinheiro ou efetua o pagamento de uma conta, mas você não pode editar um texto ou alterar o programa.

Supercomputadores

Os supercomputadores são usados para tarefas que demandem grande poder computacional e que necessitem grande capacidade de armazenamento e memória.

Eles são os servidores principais dos provedores de Internet e a maior parte utiliza o sistema operacional UNIX. Este sistema tem sido implementado em muitas comunidades científicas devido a sua alta capacidade e baixo preço.

Em 20 de junho de 1997 pesquisadores do centro de supercomputadores de Pittsburgh Nos Estados Unidos e a Universidade de Stuttgart na Alemanha conectaram supercomputadores dos dois lados do atlântico via rede de pesquisas de alta velocidade. Esta foi a primeira vez em uma rede de telecomunicação de alta velocidade (Very High Speed Backbone Network Service – vBNS) para transmissão de dados de computador através do atlântico. Considerado como protótipo para a rede internacional de alta performance, um projeto colaborativo entre o processador CRAY T3E com outro processador de alta performance de Stuttgart. O trabalho de computação realizado por dois supercomputadores em diferentes locais de trabalho e conectados entre si é conhecido como “metacomputação”. O link Pittsburgh-Stuttgart criou um sistema virtual de 1024 processadores com a performance teórica de 675 bilhões de cálculos por segundo! O projeto permitiu o desenvolvimento de várias redes de pesquisas através da conexão de alta velocidade entre os dois centros através do atlântico.

Cada nova rede estabelecida nos últimos anos permitiu a transmissão de informações a uma velocidade 100 vezes mais rápida que a Internet convencional. Por exemplo, o vBNS que conecta os centro de supercomputadores dos Estados Unidos, atualmente pode transmitir em velocidades em trono de 622 milhões de bits por segundo, velocidade suficiente para transferir toda a Enciclopédia Britânica em menos de 10 segundos.

Finalmente, a Internet é uma rede de supercomputadores e estações de trabalho (PCs) conectados através de switches, roteadores e cabos de fibra óptica. A grande força da Internet é o modo interativo remoto. A maior parte dos aplicativos disponíveis na World Wide Web (w) roda através de supercomputadores remotos dispensando a necessidade de downloads de softwares para análise local. A bioinformática é um exemplo de que a Internet tem sido parte integral da pesquisa científica e que sua necessidade e uso através de programas remotos se tornaram cada vez mais importante.

Limitações na análise computacional – A promessa paradoxal da Internet.

Quando um experimento é terminado, os dados acumulados precisam ser analisados ou processados. Isto inclui a tabulação de bases de dados, realização de testes estatísticos ou correlacionais e, o mais importante de todos, a seleção dos dados que podem ser analisados e utilizados para interpretação dos fenômenos.

Este último é um processo que é independente do computador e evidentemente dependa da confiança do cientista em seus experimentos. O julgamento da qualidade dos dados pode enganar aos olhos do observador, uma vez que o que se espera ver está baseado na hipótese na qual os experimentos foram fundamentados.

A intuição e a interferência dos cientistas são os fatores mais importantes na tomada de decisões corretas. É claro que os computadores podem ajudar, mas apenas com softwares que tenham sido desenvolvidos especificamente para aquela análise, ou seja através da intervenção humana. Enquanto que o processo analítico pode ser feito exclusivamente por computadores, a interpretação dos dados não pode ser feita por um computador por si só. Contudo, computadores podem ajudar a análise de dados avaliando cada variável de um experimento e lendo os dados de forma mais consistente, o que não poderia ser observado superficialmente pelo cientista.

Nenhum manual técnico, livro ou a Internet podem sobrepor a experiência. O estudo e o ganho de experiência são os fatores mais importantes neste estágio do processo científico.É aqui que a Internet oferece uma importante ajuda para os cientistas. Contudo, as informações encontradas em livros texto, páginas com instruções e protocolos de laboratório não são substitutos para a experiência prática, embora a natureza interativa da Internet possa causar impressão contrária.

Atualmente a Internet não é mais interativa que ler um livro em uma biblioteca ou realizar um curso tradicional de longa distância. A razão de insistir neste ponto é que saibamos que a precisão dos dados gerados por computador depende do quanto correto são as informações fornecidas e manuseadas pelo operador humano. Não é nenhum segredo que as bases de dados de DNA e proteínas contém erros conseqüentes da origem e da forma com que as seqüências foram obtidas. O sucesso da bioinformática está diretamente vinculado a uma anotação completa e confiável das seqüências nas bases de dados e com a precisão dos dados biológicos. Este processo de checagem de precisão das anotações não é automatizado e não será por muito tempo. Para tornar as bases de dados fontes confiáveis de informação, são necessários muitos especialistas para analisar palavra por palavra.

A comparação de seqüências de genes usando programas como o BLAST é razoavelmente fácil, mas a compreensão verdadeira do que os resultados desta comparação significam pode ser extremamente difícil. Os resultados dependem dos tipos de seqüências comparadas e da origem destas seqüências. Ou seja é necessário se compreender a Biologia por trás da seqüência que está armazenada na base de dados e por comparação chegar a alguma conclusão a respeito das novas seqüências. Os projetos genomas produziram muitas seqüências sem nenhuma função biológica associada. Obviamente esse era seu objetivo. Espera-se que se possam extrair informações ordenadas de modo a orientar novos experimentos que colaborem para desvendar a Biologia por trás destas seqüências.

A necessidade de Ferramentas computacionais

Atualmente a Biologia e a medicina são campos multifacetados concentrando um ou mais aspectos da vida. As neurociências concentram-se na Biologia dos neurônios. A bioquímica se detém na química dos organismos vivos. A Biologia molecular estuda as interações biológicas em nível molecular e suas interferências para as células e para o organismo como um todo. A virologia e a bacteriologia concentram-se nos ciclos de vidas de vírus e de bactérias, respectivamente.

Muitos outros aspectos da Biologia se concentram em tópicos específicos da Biologia que são importantes para cada campo particular. É indiscutível a importância que cada um destes aspectos da Biologia pode ter para o outro. A grande sobreposição de dados que existe nas informações fornecidas por cada um destes campos agora está se tornando mais obvia com o avanço nas ferramentas de manipulação de dados e, conseqüentemente, necessita do uso de ferramentas computacionais mais elaboradas.

O incrível avanço na Biologia e na medicina durante as últimas décadas tem criado um feedback positivo, onde cada novo achado serve como guia para o crescimento e popularidade de um determinado campo da Biologia. Isto também gera um crescimento exponencial dos dados biológicos. Desta forma também se faz necessário um poderoso e eficiente sistema de manipulação de dados biológicos, o que parece óbvio, mas sem o poder dos computadores isto seria inimaginável. Os computadores são agora parte integrante do mundo biológico e sem eles, os atuais avanços na Biologia e na medicina seriam, sem dúvida, impossíveis. A parceria entre estas criaturas não vivas (computadores) e a Biologia criou a necessidade de se fundir certos aspectos destas duas ciências. Novos campos, como a ciência da computação em medicina, a bioengenharia e a Biologia computacional estão em franca ascensão e estão ganhando grande respeito dentro das ciências da vida. O objetivo destes campos é a rápida análise de dados biológicos e a descoberta de informações biológicas desconhecidas. Estas informações podem ser ferramentas úteis em avanços terapêuticos no prolongamento e melhoramento da qualidade de vida.

A introdução da Internet na Biologia foi um fato bastante positivo, tem aumentado dramaticamente a comunicação entre os pesquisadores e reduzido a repetição de trabalhos em várias áreas da pesquisa científica em todo o mundo. A existência de sistemas gerenciadores de dados como o National Center for Biotechnology Information (NCBI – http://w.ncbi.nlm.nih.gov) e o European Bioinformatics Institute (EBI – http://w.ebi.ac.uk/ ) tem aumentado a eficiência de muitos pesquisadores em todo o mundo e unindo cientistas oriundos de diferentes disciplinas. O crescimento exponencial dos dados biológicos requer uma organização específica nas bases de dados através de sistemas especializados para cada tipo de informação. Por exemplo, os dados biológicos pertinentes às proteínas precisam ser separados dos polinucleotídeos (DNA e RNA). Os bancos de dados de proteínas (PDB – Protein Data Bank) são exemplos de sistema onde os dados das proteínas são armazenados especificamente como estruturas protéicas. Assim como muitos outros bancos de dados biológicos, o PDB permite a comparação entre diversas moléculas estocadas. No PDB, estas informações podem ser obtidas a partir da classificação estrutural das proteínas. Base de dados como o SCOP (Structural classification of Proteins) são ferramentas úteis na caracterização de macromoléculas em relação as demais em um sistema biológico. A simples separação de moléculas em categorias específicas não é o suficiente. Os sistemas de gerenciamento de dados devem ser capazes de mostrar a relação existente nas informações contidas nas moléculas de interesse. As informações em um arquivo específico devem conter links para dados relacionados em outros sites relevantes. Por exemplo, no sumário do arquivo PDB da mioglobina de cavalo devem existir várias opções de links para várias informações relacionadas à molécula da mioglobina. Estas informações relativas a um determinado dado permite-nos avaliar outras informações potencialmente úteis sobre outras moléculas em outros sistemas e em outros servidores na Internet.

Novas descobertas em Pesquisa científica com computadores

Problemas biológicos ainda sem solução são agora os principais temas da Biologia computacional no mundo. A Bioquímica, a Biofísica, a Biologia molecular, a Biologia evolucionária, a Bioinformática, as neurociências e a Farmacologia são apenas alguns dos campos das ciências naturais que têm sido significativamente influenciados pelas ferramentas computacionais. Ao contrário dos fenômenos da física, os fenômenos biológicos, até recentemente, eram considerados imprevisíveis e muitos dos seus aspectos eram considerados indescritíveis. A introdução de ferramentas computacionais na Biologia tem reduzido brutalmente os problemas com o manuseio de dados e mais importante que isso, tem permitido a observação da relação existente entre as moléculas biológicas em seus respectivos campos da Biologia. As novas informações biológicas aliadas com o aumento da nossa habilidade em prever fenômenos biológicos têm reforçado muito o avanço da Biologia. A idéia da Biologia como uma ciência previsível é um estímulo para muitos cientistas, o que tem afastado a visão das ciências biológicas como ficção científica. A sociedade como um todo tem dedicado grande atenção à Biologia e a Medicina nas últimas décadas graças aos avanços ocorridos como a introdução de novas drogas e tratamentos que prolongam e aumentam a qualidade de vida. Estas novidades tem sido instrumento para colocar vários campos da Biologia, como a Bioquímica e a Biologia Molecular no pedestal da ciência

Alexandre Queiroz

Fonte: www.cb.ufrn.br

Bioinformática

O que é

A matéria prima da bioinformática são dados biológicos derivados de diversos experimentos gerando dados quantitativos e qualitativos. Com esta explosão na quantidade de dados disponíveis a pressão em cima da informática para desenvolver novos programas e metodologias está aumentando cada vez mais. Por tanto, a Bioinformática consiste na criação, desenvolvimento e operação de banco de dados e outras ferramentas computacionais para coletar, organizar e interpretar dados. Varias áreas de biologia necessita destes métodos, por exemplo, biologia estrutural, sequênciamento de genomas e genes, desenho de drogas baseadas em estruturas e evolução molecular. A tecnologia molecular chega cada vez mais profundo e gerando cada vez mais dados necessitando do desenvolvimento ou modificação de mais programas, tornando-se um processo dinâmico acompanhado o avanço tecnológico. Bioinformática pode ser definido como uma disciplina cientifica que engloba todos os aspectos de biologia, aquisição de dados, processamento, armazenamento, distribuição, análise e interpretação, combinado com as técnicas de matemática e computação com o objetivo de entender a significância dos dados biológicos.

Em 1977 sequênciamento de DNA e software para analise (STADEN) já existia mas tudo dependia de computadores mainframe normalmente utilizando a linguagem FORTRAN. No começo dos anos 80, esta tecnologia começou ganhar espaço na área de biologia, mas foi limitada pela capacidade computacional das maquinas da época e a disponibilidade de dados. Em 1988 o NCBI EMBLnet foram criados e em 1990 blast começou funcionar.

Entrando nos anos 90, os avanços na tecnologia de sequencimento de DNA (seqüenciadores automáticos) e proteínas (espectrometria de massas), dados com marcadores moleculares (RAPD, RFLP, SSR etc.) e mapas genéticos, mostrou um grande problema na organização e armazenamento destes dados. Na mesma época o poder computacional do PC também aumentou rapidamente deixando cada laboratório com a capacidade de analisar muito mais dados em muito menos tempo do que antes. Hoje, temos programas de bioinformática que usam banco de dados internos e outros que fazem intercambio com banco de dados externos, mas todos com a capacidade de organizar e armazenar dezenas de gigabytes de dados.

Fonte: genfis40.esalq.usp.b

Bioinformática

Bioinformática, genes e inovação

O “pecado” da curiosidade do conhecimento levou o homem, no decorrer de sua história moderna, a sofrer alguns abalos fundamentais que chacoalharam a sua vaidade e o empurraram para quedas simbólicas, no sentido bíblico, irrecuperáveis: a primeira, entre elas, o tira, na Terra, do centro do universo, com a revolução coperniciana; a segunda, arrebata-o da linhagem divina, com a teoria da evolução das espécies, de Darwin; a terceira, composta de dois trancos, praticamente simultâneos, retira-lhe a condição de sujeito da história, no choque com a teoria marxista e desaloja-o de seu próprio eu, para revelá-lo estranho e conflituoso consigo mesmo, com a criação, por Freud, da psicanálise.

Mais recentemente, foi anunciada, como resultado do seqüenciamento dos genes que compõem o genoma humano e dos que compõe o genoma do chipanzé, uma diferença quantitativa muito pequena de genes entre os dois, o que motivou cientistas a proporem uma revisão da classificação do chipanzé para incluí-lo entre os representantes da linhagem do gênero Homo, sabido ou ignorante, pouco importa no caso em questão.

O DNA foi, há 50 anos atrás, a última grande e revolucionária descoberta científica da humanidade, abrindo novos caminhos para o desenvolvimento das ciências da vida e para o nascimento de áreas multidisciplinares de estudo e pesquisa antes desconhecidas.

A própria biologia, com o desenvolvimento da genômica e, mais recentemente, da proteômica, foi conhecendo transformações que têm mudado o seu paradigma teórico e metodológico, aproximando-a, sob esses aspectos, das chamadas ciências duras, para as quais a materialidade de seu objeto e a quantificação de seu conhecimento são condições constitutivas do rigor dos procedimentos e da verdade dos resultados produzidos pela investigação

É nesse sentido, por exemplo, que se deve entender o anúncio feito, há pouco tempo, na revista Nature Neuroscience, por Francis Crick, um dos descobridores do DNA, e sua equipe, da identificação das células responsáveis pela consciência.

Na mesma linha vai o artigo de Fernando Reinach “A materialização dos genes”, publicado no Caderno Especial, p. 2, da Folha de S. Paulo, em comemoração dos 50 anos da descoberta do DNA. Diz o autor:

“Quem vive hoje acha difícil imaginar que talvez um dia a mente esteja tão firmemente ancorada no cérebro quanto a hereditariedade está ancorada na estrutura do DNA. Nesse dia ouviremos no rádio: ‘Foi retirada uma amostra da consciência do senador fulano de tal e, após exame do material nos laboratórios do judiciário, ficou constatado que na época ele tinha consciência de que estava cometendo um ato ilegal ao mandar violar o painel do Senado’. Nesse dia, acharemos isso tão natural que a notícia: ‘Após uma cirurgia de várias horas sob anestesia geral, sem se lembrar de nada, João acordou e sentiu no peito os batimentos do coração de Maria, que tinha morrido em um acidente de automóveis no dia anterior’

Esses dois exemplos mostram a principal conseqüência desse processo de materialização: ele permite que os conceitos sejam incorporados em tecnologias. E com a tecnologia vem o poder de manipular a natureza, e com o poder novas possibilidades, novos riscos e novas responsabilidades.

Esses seres vivos, descendentes de algum macaco africano, auto-intitulados como homens sabidos (Homo sapiens), já podem manipular a constituição dos seres vivos. Afinal, clonar a ovelha Dolly a partir das células da glândula mamária de sua mãe não é muito diferente do ato de ?clonar? Eva a partir de uma costela de Adão.”

Esquecendo um pouco o entusiasmo divinizante do cientista, o fato é que hoje caminhamos cada vez mais forte e celeremente para explicações materiais da vida e da complexidade de seu funcionamento. Isso que, sem dúvida, está ligado à descoberta do DNA e ao desenvolvimento da biologia molecular se deve também aos resultados cada vez mais sofisticados das tecnologias da informação e, em particular, nesse caso, à bioinformática.

Entre as definições que se podem encontrar para a bioinformática, a que aparece, por exemplo, no site do programa dedicado ao tema da Universidade de Wageningen, na Holanda http://www.bioinformatica.nl parece-nos simples, objetiva e esclarecedora e que numa tradução mais livre poderia ser assim apresentada:

“A bioinformática é uma nova disciplina científica com raízes nas ciências da computação, na estatística e na biologia molecular. A bioinformática desenvolveu-se para enfrentar os resultados das iniciativas de seqüenciamento de genes, que produzem uma quantidade cada vez maior de dados sobre proteínas, DNA e RNA. Desse modo, os biólogos moleculares passaram a utilizar métodos estatísticos capazes de analisar grandes quantidades de dados biológicos, a predizer funções dos genes e a demonstrar relações entre genes e proteínas”.

O papel da bioinformática na descodificação de um gene é tão importante, do ponto de vista da velocidade com que a tarefa pode ser realizada, que o Genoma Humano, inicialmente previsto, em 1987, quando foi concebido, para ser desenvolvido e concluído em 15 anos, acabou sendo antecipado, em cerca de 5 anos, tendo em 26 de junho de 2000 sido dado por decifrado em seus aspectos essenciais.

Hoje, para que se possa ter idéia da contribuição que a informática trouxe ao desenvolvimento da genômica, um novo gene, com cerca de 12 mil bases pode ter sua seqüência decifrada em 1 minuto, quando há 3 anos atrás a mesma tarefa levaria 20 minutos e há 20 anos, mais ou menos 1 ano.

Há, desse modo, uma relação de motivação científica e tecnológica muito forte entre a descoberta do DNA, os estudos de transgenia, a materialidade do conhecimento propiciada pela biologia molecular, e pela genômica e o nascimento, a constituição e o desenvolvimento da bioinformática.

No Brasil, esse fenômeno pode ser acompanhado de perto se olharmos, por exemplo, para os diversos projetos do Programa Genoma Fapesp, reunidos, desde maio de 1997 na Rede Onsa (sigla, em inglês, para Organization for Nucleotide Sequencing and Analysis). Com a Rede Onsa, a Fapesp estabeleceu as bases para o funcionamento de um instituto virtual e dinâmico que congregou, inicialmente, cerca de 30 laboratórios de diferentes instituições do estado de São Paulo, e que hoje, com uma participação cada vez maior e mais competente de novos grupos de pesquisa em novos projetos, acabou por consolidar uma nova concepção do desenho institucional da pesquisa no país. Contribuiu, além disso, para o estabelecimento de uma cultura de interação e de integração entre as universidades e as empresas, essencial quando se quer enfrentar o desafio necessário e impositivo, em nossa época, da transformação do conhecimento em riqueza.

O Genoma da Xylella fastidiosa, o Genoma da Cana, o Genoma Humano do Câncer, o Genoma Clínico do Câncer, o Genoma Xanthomonas, o Genoma do Eucalipto, o Genoma do Schistomona Mansoni, o Genoma da bactéria Leifsonia Xyli, dentro do projeto abrangente dos Genomas Agronômicos e Ambientais (AEG, sigla para o inglês Agronomical and Environmental Genomics), criado em 2000, a partir do projeto feito em conjunto com o Departamento de Agricultura dos EUA para o seqüenciamento de uma variante da xylella fastidiosa que ataca as uvas e que na época atingia as vinhas do sul daquele país, enfim, o Genoma Bovino, anunciado mais recentemente, todos mostram as etapas dessa progressiva conquista científica e tecnológica da Genômica no Brasil, em que a bioinformática esteve presente como instrumento indispensável, de um lado, e como conhecimento, em dinâmica de evolução, do outro.

Vários centros de pesquisa e desenvolvimento em bioinformática foram, desde o lançamento da Rede Onsa, se constituindo e se consolidando em São Paulo, acompanhando a espiral de crescimento da cultura genômica no país. Assim foi na Unicamp, na USP, na Unesp, no Instituto Ludwig, no Laboratório Nacional de Computação Científica, no Rio de Janeiro, na Universidade Federal de Pernambuco, na Federal de Minas Gerais e na Federal do Rio Grande do Sul.

O movimento não cessa, espalhando-se por outros estados e instituições a ponto de ter propiciado a realização de um grande congresso voltado para o tema em maio passado e de ter motivado o nascimento de uma empresa – a Scylla – com foco na bioinformática para o desenvolvimento da genômica e da proteômica.

A empresa nasceu por iniciativa de pesquisadores que trabalharam, desde o início, no projeto do Genoma da Xylella, cujo nome acabou, por anagrama, batizando uma outra empresa – esta de biotecnologia-, a Alellyx, que teve no mesmo genoma a sua inspiração, assim como também uma terceira, a Canavialis, teve seu berço no Genoma da Cana. Todas elas empresas de base tecnológica que empregam um número expressivo de pesquisadores mestres e doutores, competências multidisciplinares e modernas, e que dividem ainda, compartilhando-os, os genes do desafio de agregar valor econômico e social ao conhecimento produzido em seus laboratórios e nos laboratórios das instituições superiores de ensino e pesquisa que lhes deram origem.

Carlos Vogt

Fonte: www.comciencia.br

Bioinformática

O papel da Bioinformática na pesquisa agropecuária

Podemos entender a Bioinformática, de uma maneira simplificada, como a aplicação de ciência da computação à resolução de problemas das áreas biológicas.

Ampliando um pouco, temos a Bioinformática como uma área multidisciplinar da ciência, envolvendo tecnologia da informação, biologia, matemática, estatística, química, física e outras disciplinas visando resolver problemas das ciências da vida, sendo principalmente aplicada a questões da biologia molecular.

Como ela surgiu? O conhecimento científico aumenta em quantidade e qualidade a cada dia, e algumas épocas de grandes descobertas se tornam marcos. A genômica surgiu num desses momentos de mudança, e a geração de quantidades de dados biológicos cada vez maiores levou ao desenvolvimento de uma área específica de conhecimento, que permitisse manipulação confiável e rápida de grande quantidade de dados e que viabilizasse e ampliasse o potencial das pesquisas. Portanto, a bioinformática suporta e potencializa muitas das tecnologias mais modernas na fronteira do conhecimento, como sequenciamento e fenotipagem de alta quantidade de dados (“high throughput”).

Se, do ponto de vista do bioinformata, estamos falando de constante evolução e de integração de diferentes áreas do conhecimento, do ponto de vista do usuário a bioinformática é essencialmente uma importante ferramenta, em alguns casos imprescindível. E se é uma ferramenta, é bom lembrar que para o melhor resultado é preciso utilizar a ferramenta correta da maneira correta.

Como no exemplo da estatística, em que a pesquisa deve incluir essa disciplina desde o planejamento do experimento, o bioinformata deve estar presente nas discussões de todas as fases dos projetos. Embora o estatístico e o bioinformata possam extrair informações dos dados que tiverem em mãos, a falta de planejamento correto pode prejudicar a otimização dos resultados, podendo inclusive inviabilizar o cumprimento de metas. Como a complexidade dos sistemas e processos estudados pela bioinformática gera muitos comportamentos imprevistos e/ou não controláveis para serem estudados nas pesquisas, podemos dispensar fatores adversos adicionais.

Conceitos apresentados, vamos à prática. Como a bioinformática se insere no contexto da agropecuária? Ou, onde e como pode ser aplicada e qual sua importância? Utilizemos um exemplo da Embrapa Agroenergia, unidade da Embrapa que nasceu há poucos anos e que inclui o Laboratório de Análises de Bioinformática (LAB) no prédio que será sua base de atividades e que está em construção, com término previsto para o final deste ano.

A pesquisa em Agroenergia inclui diversos aspectos (www.cnpae.embrapa.br), e entre eles está conhecer e melhorar as espécies potencialmente utilizáveis como fontes renováveis de energia. Muitas destas linhas de pesquisa, como caracterização molecular, melhoramento genético, engenharia genética ou mesmo conhecimento básico sobre mecanismos moleculares das espécies, tem a alta produtividade e a obtenção de resultados vinculadas à aplicação de novas tecnologias e de bioinformática.

O sequenciamento de grande parte de um genoma pode ser feito em poucos dias, e a estrutura e as análises de bioinformática possibilitam que este tipo de informação seja organizado e disponibilizado de forma a facilitar a interpretação dos resultados, direcionando os próximos passos e auxiliando as conclusões no final da pesquisa.

A Bioinformática não substitui a pesquisa de bancada e não cria informações do nada. Os bioinformatas utilizam o conhecimento prévio e fazem comparações e análises específicas através de ferramentas computacionais, com velocidade e capacidade muito superiores às análises feitas manualmente. Sendo assim, podemos dizer que a bioinformática reduz enormemente o trabalho manual, direcionando o mesmo para casos específicos em que ele seja realmente necessário e acelerando e facilitando tomadas de decisão. Em outras palavras, a genômica e a bioinformática, representando aqui tecnologias modernas de alta capacidade, direcionam as pesquisas para que os esforços fiquem concentrados nos casos em que seja mais provável encontrar as melhores soluções, potencializando o desenvolvimento.

O Brasil já é capaz de utilizar tecnologias de ponta em pesquisas de interesse nacional e mundial, o que é motivo de orgulho. Seja em culturas como pinhão manso, palma e cana-de-açúcar ou em florestas energéticas e tratamento de resíduos, seja em outras diversas áreas de pesquisa agropecuária, existem pesquisas em andamento ou sendo planejadas onde a utilização correta da bioinformática é imprescindível para a obtenção de bons resultados. Numa outra oportunidade trataremos de exemplos específicos de aplicação.

Eduardo F. Formighieri

Fonte: www.embrapa.br

Conteúdo Relacionado

 

Veja também

Mecanismos de Feedback

Mecanismos de Feedback

PUBLICIDADE O que são mecanismos de feedback? Um mecanismo de feedback é um processo que usa …

Hermafrodita

Hermafrodita

PUBLICIDADE O que é hermafrodita? Hermafrodita ou intersexual é um indivíduo que tem algumas ou …

Tipos de Seleção Natural

Tipos de Seleção Natural

PUBLICIDADE Quais são os tipos de seleção natural? A seleção natural é um processo natural …

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios são marcados com *

Time limit is exhausted. Please reload the CAPTCHA.

300-209 exam 70-461 exam hp0-s41 dumps 640-916 exam 200-125 dumps 200-105 dumps 100-105 dumps 210-260 dumps 300-101 dumps 300-206 dumps 400-201 dumps Professor Messer's CompTIA N10-006 exam Network+