sábado, 12 de novembro de 2011

Inteligência artificial ajuda a encontrar fósseis

Encontrar fósseis é atividade que envolve sorte e paciência. A famosa Lucy, por exemplo, um esqueleto de Australopitecus afarensis,   foi encontrada por acaso quando o paleoantropologista Donald Johanson teve que fazer um retorno com seu Land Rover na Etiópia, em 1974. Tradicionalmente, entretanto, encontrar um fóssil exige que se consulte a literatura para saber onde outros encontraram exemplares, consultar mapas e cartas geológicas em busca de rochas de uma era em particular e finalmente procurar fósseis in loco no sitio.
O paleontologista Bob Anemome da Western Michigan University criou uma Rede Neural Artificial que auxilia  na identificação de sítios com potencial para ocorrência de fósseis.  Redes Neurais Artificiais conseguem, por meio de treinamento, assimilar padrões identificados em bases de dados conhecidas, podendo a posteriori fazer previsões em outras bases de dados.  Para treinar redes neurais na identificação de fósseis, Anemome utilizou imagens de satélite do Great Divide Basin e marcou pixels em seis faixas de comprimentos de onda, incluindo infravermelho, para diferentes tipos de terreno. Ele definiu também, se o pixel em questão corresponde ou não a um sítio onde existem fósseis. Dessa forma ele criou conjuntos de treinamento onde fornecia à rede diversas categorias de pixels, com os atributos fóssil e não fóssil, ou seja, a entrada da rede constituída por  variáveis associadas a um pixel (tipo de terreno, comprimento de onda, área, dentre outras) e a saída  o identificando como fóssil e não fóssil.  
Quando submeteu outras imagens à rede treinada, o modelo identificou corretamente 79% dos pixels com potencial para encontrar fósseis e desses, 99% realmente continham fósseis, um resultado excepcional.
Resultados como esse mostram como Redes Neurais Artificiais, que modelam o comportamento de aprendizagem do cérebro humano, podem ser aplicadas eficientemente às mais diversas áreas do conhecimento humano.

Nature News, 08/11/2011


quarta-feira, 28 de setembro de 2011

Gravidade Testada em Grande Escala Confirma Relatividade Geral de Einstein

Os cientistas  Henry Cavendish (britânico) e Rosland von Eotvos (húngaro) testaram a teoria geral da relatividade de Einstein em escala cósmica, medindo o desvio para vermelho (redshift) da luz proveniente de galáxias localizadas em aglomerados, causado pela gravidade desses conglomerados e não pela expansão do universo.  A teoria geral da relatividade de Einstein prevê que o comprimento de onda da luz aumenta pela influência da gravidade, fazendo com que ocorra o desvio para o vermelho acima mencionado. Eles viram que a luz das galáxias situadas no interior dos aglomerados levava mais tempo para se libertar do campo gravitacional do  que o luz das galáxias situadas na periferia. Conhecendo-se a massa de cada aglomerado, a teoria da relatividade geral foi usada para avaliar o redshift  gravitacional das galáxias segundo sua posição no aglomerado. O redshift varia proporcionalmente à influência gravitacional do conglomerado.  Segundo os cientistas, os resultados observados corresponderam aos calculados, comprovando a teoria. Esse resultado vem um momento em que cientistas do CERN divulgaram ter observado neutrinos viajando a velocidade ligeiramente superior à da luz, contradizendo um dos pilares da teoria da relatividade restrita de Einstein, que postula ser a velocidade da luz a maior possível de ser atingida.

Referência: Revista Nature,  setembro de 2011.

segunda-feira, 15 de agosto de 2011

Implementação dos processos Validação e Verificação do MPS-Br

Nesse artigo apresentaremos as principais diretrizes para implementação de resultados dos processos Validação e Verificação do MPS-Br, conforme a parte 4 do guia oficial de implementação do SOFTEX.

O Processo Validação


"O propósito do processo Validação é confirmar que um produto ou componente do produto atenderá a seu uso pretendido quando colocado no ambiente para o qual foi desenvolvido"

VAL1 - Produtos de trabalho a serem validados são identificados


Esta identificação pode ocorrer nos estágios iniciais do projeto, com base nos artefatos que serão produzidos pelo processo.Uma boa prática é definir critérios para seleção dos produtos ou componentes de produto que serão validados e selecioná-los segundo estes critérios.Pode-se, por exemplo, selecionar os produtos mais relevantes com base nas necessidades do cliente ou levando-se em consideração os riscos associados aos produtos.É possível, também, definir, em nível organizacional, uma lista de produtos ou componentes de produto que normalmente são validados, de forma que os projetos só precisem adaptar essa lista às suas necessidades. 

VAL2 - Uma estratégia de validação é desenvolvida e implementada, estabelecendo cronograma, participantes envolvidos, métodos para validação e qualquer material a ser utilizado na validação  


Alguns métodos de validação requerem um planejamento específico que deve ser realizado, por exemplo, o planejamento dos casos de testes. Deve ser definido ainda um cronograma para as atividades de validação e os recursos necessários à execução das atividades devem ser planejados. Este cronograma e a alocação dos recursos, tanto humanos quanto outros recursos em geral, devem estar integrados ao Plano do Projeto. Prototipação é um dos métodos para a validação de requisitos. 

VAL3 - Critérios e procedimentos para validação dos produtos de trabalho a serem validados são identificados e um ambiente para validação é estabelecido

Devem ser definidos os critérios para a validação de cada produto ou componente do produto. Para ajudar a determinar se um critério foi ou não atendido, algumas métricas podem ser definidas.Alguns exemplos de critérios para validação dos requisitos são: adequação funcional e usabilidade. Para validação de um software alguns critérios de validação poderiam ser: tempo de resposta, tolerância a falhas, recuperabilidade, uso de memória, confiabilidade e portabilidade.

VAL4 - Atividades de validação são executadas para garantir que o produto esteja pronto para uso no ambiente operacional pretendido

Uma das principais formas de se realizar a validação é executando testes. A realização dos testes ao longo de todo o processo de desenvolvimento do software é possível por meio da execução de quatro etapas distintas:
  • Planejamento 
  • Projeto de casos de teste 
  • Execução 
  • Avaliação dos resultados 
VAL5 - Problemas são identificados e registrados


Este resultado esperado visa garantir que os problemas identificados durante a execução das atividades de validação foram documentados e que foram definidos quais problemas serão tratados. Estes problemas devem ser acompanhados até sua conclusão. A organização pode definir critérios que facilitem essa análise considerando os riscos para o projeto e o impacto na qualidade do produto.  




VAL6 - Resultados de atividades de validação são analisados e disponibilizados para as partes interessadas

Envolve realizar uma análise dos resultados obtidos em decorrência da execução das atividades relacionadas a validação e disponibilizar estes resultados para o cliente, ou seu representante na execução das atividades, e outras partes interessadas. Alcance deste resultado é obtido por meio da análise de laudos de avaliação e relatórios de testes que contenham informações sobre os resultados obtidos após a realização das atividades de validação. A avaliação destes resultados permite responder questões como:  

  • Os critérios definidos foram satisfeitos?  
  • As ações corretivas planejadas foram concluídas?  
  • A validação foi executada conforme planejado?  
  • Os resultados obtidos permitem a aprovação do artefato validado?  
  • O produto final está pronto para o uso pretendido? 
VAL7 - Evidências de que os produtos de software desenvolvidos estão prontos para o uso pretendido são fornecidas 

Quando as atividades de teste são realizadas e há evidências que o produto satisfaz os requisitos e as expectativas do cliente, o produto pode ser considerado validado. Para isso o produto deve ser testado em seu ambiente real de uso ou em uma reprodução deste ambiente.  É necessário registrar os resultados da validação, evidenciando que o produto está pronto para o uso.  Uma das formas de garantir que o produto está pronto para ser usado é realizar uma reunião com os clientes e/ou usuários finais onde sejam apresentados os resultados da validação, a correção dos problemas detectados e se obtenha o aceite de que o produto está pronto para o uso.  

O Processo Verificação

"O propósito do processo Verificação é confirmar que cada serviço e/ou produto de trabalho do processo ou do projeto atende apropriadamente os requisitos especificados"

VER1 - Produtos de trabalho a serem verificados são identificados

Para atender a este resultado esperado deve-se analisar os produtos de trabalho que serão produzidos ao longo do projeto e selecionar aqueles a serem verificados. Uma boa estratégia para seleção de produtos de trabalho leva em consideração as contribuições para o alcance dos objetivos e requisitos do projeto, considerando também os riscos do projeto. Alguns possíveis produtos de trabalho selecionados para a verificação, por sua importância, podem ser o plano do projeto, o documento de requisitos, o documento de análise, o documento de projeto e o código-fonte. 

VER2 - Uma estratégia de verificação é desenvolvida e implementada, estabelecendo cronograma, revisores envolvidos, métodos para verificação e qualquer material a ser utilizado na verificação

O alcance deste resultado esperado envolve definir uma estratégia de verificação descrevendo os procedimentos, a infra-estrutura necessária e as responsabilidades pelas atividades de verificação. Os métodos que serão usados para verificação de cada produto de trabalho selecionado para verificação devem ser identificados, garantindo, em cada projeto, a realização de algum tipo de revisão por pares e testes.  As ferramentas que apoiarão a execução das atividades de verificação também devem ser definidas.  Exemplo de métodos: walkthroug (revisões estruturadas), testes em seus diversos níveis (unidades, integração, sistema...etc) 

VER3 - Critérios e procedimentos para verificação dos produtos de trabalho a serem verificados são identificados e um ambiente para verificação é estabelecido

O alcance deste resultado esperado implica na definição dos critérios e procedimentos que serão utilizados para a verificação de cada produto de trabalho e na preparação do ambiente para verificação, disponibilizando ferramentas, recursos de hardware, infra-estrutura de rede e outros recursos necessários à execução das atividades planejadas. Para ajudar a determinar se um critério foi ou não atendido, questões (checklist) e/ou métricas para cada critério podem ser definidas. Abaixo, apresentam-se sugestões de critérios para avaliação de requisitos.



VER4 - Atividades de verificação, incluindo testes e revisões por pares, são executadas

Este resultado esperado visa garantir que as atividades de verificação são executadas conforme planejado, o que inclui, obrigatoriamente, a realização de revisão por pares e testes.

VER5 - Defeitos são identificados e registrados

Este resultado esperado visa garantir que os defeitos identificados durante a execução da verificação são documentados e registrados.  Para registro dos defeitos identificados pode-se usar uma classificação de defeitos, por exemplo, por severidade (crítico, sério, moderado) ou por origem (requisitos, projeto (design), código, testes). Após a eliminação dos defeitos, deve-se julgar a necessidade de executar nova verificação para garantir que os defeitos foram removidos adequadamente e que novos defeitos não foram introduzidos no produto ou componente do produto. 

VER6 - Resultados de atividades de verificação são analisados e disponibilizados para as partes interessadas

Uma forma de alcance destes resultados é pela análise de laudos de avaliação e relatórios de testes que contenham informações sobre os resultados obtidos após a realização das atividades de verificação. Exemplos de perguntas que podem ser respondidas com esta avaliação incluem:  

  • Os critérios definidos foram satisfeitos?  
  • As ações corretivas planejadas foram concluídas?  
  • A verificação foi executada conforme planejado?  
  • Os resultados obtidos permitem a aprovação do artefato verificado? 
Referência

SOFTEX-Guia de Implementação – Parte 4: Fundamentação para Implementação do Nível D do MR-MPS, agosto de 2009.

sábado, 13 de agosto de 2011

Como reconhecer a consciência

Em 1950, o matemático britânico Alan Turing publicou um artigo que propunha um teste para verificar se um computador ou programa exibe comportamento inteligente. Esse teste, denominado Teste de Turing, apresenta um juiz humano interagindo por meio de linguagem natural , com um computador e com outro ser humano. O juiz está isolado do computador e do ser humano. Se após certo tempo, o juiz não conseguir definir quem seria o ser humano ou o computador, tal computador será considerado inteligente. 
A chamada teoria da informação integrada da consciência oferece uma forma de lidar com o desafio de determinar a consciência em um sistema computacional. Nossa experiência cotidiana de interação com o meio relaciona-se à forma como o cérebro integra sinais sensoriais obtidos através dos sentidos com informações da memória. A teoria da informação integrada propõe que a consciência é altamente informativa, ou seja, cada estado de consciência em particular descarta um número imenso de outros estados possíveis dos quais ele se difere, formando a ideia real do que estamos vivenciando. Propõe também, que a informação consciente é integrada, ou seja, qualquer cena que entre na consciência por meio de nossa experiência sensorial permanece integral e completa e não pode ser subdividida em componentes independentes que possam ser vivenciados de forma isolada. A consciência, portanto, é uma entidade única, integrada com um grande número de estados distinguíveis.
A capacidade de um sistema para a informação integrada e, por conseguinte, para a consciência, pode ser medida perguntando-se quanta informação um sistema tem acima e além da que compõe suas partes individuais. Essa  medida, denominada ɸ, pode ser calculada para qualquer sistema, tanto para um cérebro como para um robô, ou um programa, ou até mesmo um dispositivo eletromecânico. Um sistema constituído de partes bem especializadas e bem integradas, produzindo mais juntas que separadas, possui um ɸ alto. Dentre os sistemas que possuem um ɸ baixo, podemos citar aqueles que possuem elementos com alto grau de independência, aqueles cujos elementos são redundantes (não especializados) e aqueles cujos elementos se interconectam aleatoriamente.  No córtex cerebral humano, rico em neurônios fortemente interconectados, o ɸ é naturalmente alto.
Para um computador, uma imagem é simplesmente um emaranhado de pixels sem significado. Para um ser humano uma imagem é significativa porque está repleta de conexões entre as partes, estendendo-se de pixels a objetos e cenas, especificando que partes da imagem combinam ou não entre si.  É exatamente essa diferença , essa rede integrada de conhecimento relacionado que dá identidade a cada imagem distinguindo-a de várias outras, que nos dota da capacidade de sermos conscientes do mundo.
Uma forma interessante de testar a capacidade de um computador entender uma imagem, seria o cobrir terço central vertical de várias imagens com uma faixa preta, separar as partes resultantes (direita e esquerda) e embaralhá-las. O computador é desafiado a identificar os pares que fazem parte da mesma imagem. Estratégias simples atuais utilizadas por programas de análise de imagem, como ligar linhas de cor e textura, não poderiam ser utilizadas porque as partes direita e esquerda foram separadas pelo terço coberto pela faixa preta.  Esse teste envolve muito mais, envolve a capacidade de deduzir como as peças se encaixam, imaginando o que existe no terço coberto pela faixa preta.  Estratégias computacionais que envolvem a combinação de informações estatísticas simples, como características de imagem-cor, bordas ou textura- podem ser bem sucedidas em testes como este, mas têm alcance limitado quando muitas situações são apresentadas ao computador. Isso evidencia a grande quantidade de informação integrada que percebemos conscientemente e as limitações atuais dos sistemas de visão computacional.
Atualmente, programas especializados são capazes de identificar rostos, digitais ou assinaturas, mas ainda é muito difícil desenvolver um algoritmo que seja capaz de identificar que um notebook flutuando sobre uma mesa é algo irreal e inusitado.  Um algoritmo dotado de consciência teria que ter conhecimento das incontáveis conexões entre as coisas do mundo contido em sistema único, altamente integrado.  A resposta à pergunta "o que está errado na figura" seria possível porque qualquer coisa fora do lugar não combinaria com algumas das restrições intrínsecas impostas pelo modo como a informação é integrada. Ou seja, seria um modo consciente de agir graças à capacidade de integrar informações.  Suspeita-se que para atingir esse nível, devem-se explorar os princípios estruturais do cérebro humano, altamente distribuído e com partes altamente dependentes e interconectadas.

Baseado no artigo "Como Reconhecer a Consciência"  de Christof Kock e Giulio Tononi, publicado na Scientific American Brasil de julho de 2011.


sexta-feira, 5 de agosto de 2011

Viagens Extracorpóreas. Verdade ou Alucinação?

Nos anos 80 o médico brasileiro Waldo Vieira publicou um livro de 900 páginas, versando sobre a chamada projeciologia, ou a capacidade da consciência humana se libertar do corpo físico e retornar ao mesmo.  Na época, assisti a uma palestra do Dr. Waldo no auditório do ITA e, ainda que eu não descarte essa possibilidade por crer que nosso conhecimento acerca da realidade ainda é muito pequeno, na essência sempre fui cético.
Entretanto, o Dr. Miguel Nicolelis, renomado pesquisador brasileiro radicado na Universidade Duke nos Estados Unidos, em seu excepcional livro "Muito Além do Nosso Eu", descreve experimentos  interessantes, que lançam um víés realmente científico  sobre o assunto.
Segundo Nicolelis, essa sensação pode ser induzida por traumas, experiências de quase morte, consumo de drogas psicodélicas, meditação profunda, privação de sono, determinados tipos de anestesia, dentre outros fatores. Essa sensação pode ser também  reproduzida em indivíduos saudáveis por meio de estimulação da área  da junção dos lobos parietal e temporal no hemisfério cerebral direito, usando uma técnica  conhecida como estimulação magnética  transcraniana.
O cientista  sueco Henrik Ehrson realizou  experimentos em que os voluntários relataram a sensação de estar fora de seus corpos e até mesmo trocar de corpo com outras pessoas. Para chegar a esses resultados, Ehrson manipulou a denominada perspectiva de primeira pessoa dos indivíduos, fazendo-os utilizar um  capacete equipado com monitores de vídeo que cobriam ambos os olhos, exibindo imagens binoculares provenientes de câmeras montadas na cabeça de um manequim colocado na frente deles. Essas visões eram das mãos, troncos e abdome sob a perspectiva de primeira pessoa do manequim. Em seguida, um pesquisador se colocou entre o manequim e o voluntário, tomando o cuidado de ficar fora do alcance das câmeras.  Usando dois bastões, o pesquisador começou a estimular sincronizadamente  o abdome do voluntário e do manequim por alguns minutos. O voluntário conseguia ver, por meio dos monitores, um dos bastões tocando o abdome do manequim.  Surpreendentemente, quando indagados, os voluntários relataram sentir o toque do bastão no corpo do manequim e não no seu próprio. A maioria deles acabou por afirmar que passaram a sentir o corpo do manequim como sendo o seu.  Ao perceber uma ameaça de corte com faca no abdome e mãos do manequim, os indivíduos manifestaram um comportamento de estar sob ameaça.
Em outro experimento, Ehrson colocou  voluntários e um experimentador   frente a frente. Os voluntários utilizavam o mesmo capacete com monitores, que exibiam imagens geradas por câmeras montadas na cabeça do experimentador, sentado na frente deles e olhando diretamente na direção deles. Graças a esse aparato, os voluntários observavam as mãos do experimentador como sendo suas e suas próprias mãos do ponto de vista do observador. O sujeito deveria estender o braço direito para apertar a mão direita do experimentador. Entretanto, o que ele via com os olhos eram as imagens do braço direito do observador se movendo simultaneamente em direção ao seu. E  visualizava seu próprio braço como se fosse de outro corpo posicionado em frente ao seu. Nesse instante, o sujeito deveria apertar a mão que se projetava em seu campo visual, enquanto o experimentador apertava a sua simultaneamente.O aperto de mãos era mantido por alguns minutos. Ao relatar a experiência, os voluntários, em sua grande maioria, afirmavam sentir que o braço do experimentador  era uma extensão do corpo de cada um deles. Afirmavam também que o corpo do experimentador passou a ser seus corpos, substituindo seu corpo real. Ou seja esses indivíduos, em poucos minutos, foram capazes de renegar seus corpos orgânicos e assumir um outro corpo!  Um outro fato curioso é que quando seus corpos e depois o do experimentador eram ameaçados por uma faca, eles exibiam uma reação de alarme muito maior quando a ameaça era feita ao corpo do experimentador. O experimento também funcionou quando o experimentador e o voluntário eram de sexos opostos.
Segundo muito bem expresso por Nicolelis, esses experimentos  mostram que  o o corpo  não passa de uma artimanha dissimulada pelo cérebro, reduzindo o culto ao corpo a mera futilidade. Evidencia também possibilidades interessantes, como nosso cérebro assumir intimamente outro corpo (como no filme Avatar), ou um corpo virtual (como no filme Matrix)  e perceber todas as sensações oriundas do mundo  onde possa estar inserido.

segunda-feira, 1 de agosto de 2011

O que á uma solução de Inteligência Artificial?

Técnicas de Inteligência Artificial provêem mecanismos para tornar a solução de problemas mais próxima à que um ser humano utilizaria, melhorando a forma de utilização do conhecimento, a capacidade de generalização e a capacidade de tomar decisões em situações imprevistas ou singulares. Nesse artigo, vamos comparar  soluções para dois problemas, partindo da  "menos inteligente" até a que mais se enquadra ao conceito de uma solução da Inteligência Artificial. Vamos analisar tais soluções frente a três características: complexidade de implementação, capacidade de generalização e utilização do conhecimento. Para cada uma delas, vamos propor uma estrutura de dados para representar o problema e um algoritmo.

Problema 1- Jogo da velha

Solução 1

Estrutura de dados

Vamos definir um vetor de 9 elementos, onde cada elemento possui um dos seguintes valores:

     0, se a casa estiver em branco
     1, se houver um X  na casa
     2, se houver uma O (bola) na casa

Assim sendo, esse vetor vai conter um número ternário (base 3).
Utilizaremos também uma tabela de movimentos que contém 19683 entradas (3 elevado a 9), que são as combinações possíveis dos 3 valores (combinações com repetição de 3 valores para 9 posições). Cada entrada dessa tabela contém a jogada a ser efetuada, desde que o estado do tabuleiro que representa seja viável segundo as regras do jogo.

Algoritmo

1-Visualizar o vetor representando o tabuleiro como sendo um número ternário. Converter esse número para a base 10.
2-Utilizar o número obtido como um índice na tabela de movimentos e acessar a entrada.
3-O estado sugerido pela entrada acessada no passo 2 será a próxima jogada.

Análise

No que diz respeito à complexidade, esse algoritmo é bem simples de ser implementado. O problema dele está no enorme trabalho braçal necessário à confecção da tabela de movimentos: as melhores jogadas para cada estado têm que ser precisamente previstas. A capacidade de generalização também é mínima: se quiséssemos estendê-lo para uma versão tridimensional, isso seria inviável em termos de memória necessária. Precisa de muito conhecimento acerca das melhores jogadas na confecção da tabela de movimentos. Sem esse conhecimento, não existe chance de jogar bem.

Solução 2

Estrutura de dados

O tabuleiro será representado por um vetor de 9 posições numeradas de 1 a 9, onde cada elemento será 2 se a casa estiver vazia, 5 se for O (bola) e 3 se for X.
A próxima jogada a ser feita será denotada por um inteiro de 1 a 9 correspondendo à posição no vetor.

Algoritmo

Subrotinas:
faça2:  tenta colocar 2 de suas peças em uma fileira (linha, coluna ou diagonal) de forma a ter chance de ganhar na próxima jogada
ganha (p): retorna zero se o jogador p não puder vencer no seu movimento seguinte. Caso contrário, retorna o número do quadrado que constituir um movimento vencedor.
jogue(n) : Fazer um movimento no quadrado n

O X faz os movimentos ímpares 
A bola  faz os movimentos pares

1-Jogue (1)
2-Se tabuleiro[5]= 2 então jogue(5) senão jogue(1)
3-Se tabuleiro[9]= 2 então jogue(9) senão jogue(3)
4-Se ganha(X) diferente de 0 então jogue(ganha(X)) senão faça2.
5-Se ganha(X) diferente de 0 então jogue(ganha(X)) senão se ganha(O) diferente de 0 então jogue(ganha(O)) senão se tabuleiro[7] = 2 então jogue(7) senão jogue(3)
6-Se ganha(O) diferente de 0 então jogue(ganha(O)) senão se ganha(X) diferente de 0 então jogue(ganha(X)) senão faça2
7, 8 ou 9 - Se ganha(EU) diferente de 0 então jogue(ganha(EU)) senão se ganha(OUTRO) diferente de 0, então jogue(ganha(OUTRO)) senão jogue(QUALQUER POSIÇÃO)

Análise

Essa solução é de implementação mais complexa, mas pode ser generalizada e depende menos do conhecimento de todas as jogadas possíveis, como na solução 1. Portanto, está mais próxima ao que se espera de uma solução de Inteligência Artificial.

Solução 3

Extrutura de dados

Uma árvore de possibilidades, onde cada elemento é um vetor de 9 posições. Cada elemento aponta para outros elementos que são os estados possíveis  no movimento seguinte. Cada estado possui um número, que corresponde à chance de levar à vitória. Esse número é obtido da seguinte forma:
                          Número de colunas, linhas e diagonais onde X ganha menos número de colunas, linhas e diagonais onde O (bola) ganha.
Assim sendo, quanto maior esse número, melhor a jogada para o X  e pior para o O (bola)
     
Algoritmo

1-Verifique se a posição analisada é a vencedora. Se for, escolha-a.
2-Caso contrário, analise os movimentos do opositor a partir de determinada possibilidade (dois níveis abaixo na árvore, que são as jogadas do opositor). Veja qual é a pior para nós e suponha que o opositor fará opção por ela (pois é também a melhor para ele).
3-Passe essa pior jogada   para o nível imediatamente anterior (que é o de nossas jogadas possíveis)
4-Escolha a menos pior (a que tem o melhor valor da função de avaliação para nós).
5-Opositor joga
6-Volte a 1

Análise

Essa solução é grande consumidora de memória e é bem mais lenta que as anteriores.Normalmente, soluções de Inteligência Artificial exibem essa característica. Entretanto é altamente generalizável (basta trocar o vetor de 9 elementos por um vetor de 27 elementos, por exemplo, para torná-lo 3D) e não exige  nenhum conhecimento das jogadas possíveis, como nas duas soluções anteriores. Essa seria a solução clássica fornecida pela Inteligência Artificial.

Problema 2 - Identificador de caracteres - reconhecimento de padrões

Esse problema consiste em se identificar  caracteres em um texto. Esses caracteres são capturados e armazenados em uma estrutura de dados. É exatamente o que os OCRs (identificadores ópticos de caracteres) fazem. O problema aqui restringe-se à etapa de identificar os caracteres já armazenados na estrutura de dados adequada.

Solução 1

Estrutura de dados

  • Uma matriz quadrada que representa o formato do caracter. Cada pixel é representado por um  "1" na matriz e a ausência de pixel por um zero na matriz. Cada caracter a ser reconhecido tem sua representação nessa matriz e o conjunto de todos os caracteres constitui o padrão a ser identificado.
  • Uma tabela de randomização (hash) onde cada letra do padrão possui um lançamento. A chave da tabela de hash é calculada assim:
    • Tirar 3 linhas da matriz de zeros e uns
    • Concatenar as 3 linhas
    • Através de uma função de hash, transformar as linhas concatenadas em uma chave de acesso
Algoritmo

1-Transformar o caracter a ser identificado em uma matriz de zeros e uns
2-Tomar na matriz as mesmas 3 linhas que foram utilizadas para os padrões
3-Aplique a essas 3 linhas a mesma função de haxh utilizada para os padrões

Análise

  • As letras a identificar devem se assemelhar com exatidão aos padrões (ou seja, é pouco generalizável e exige muito conhecimento acerca do formato dos caracteres)
  • Se modificar a coleção de símbolos, modificamos também a tabela de hash, o que pode se tornar bastante complicado
  • Um número grande de símbolos aumenta a chance de colisões na tabela de hash.

Solução 2

Estrutura de dados

  • Matriz de zeros e uns idêntica à da solução 1
  • Padrões conhecidos: um conjunto de vetores de tamanho N, sendo um vetor para cada caracter. Esses vetores são formados tomando-se a matriz de zeros e uns e dividindo-as em N regiões. O número de 1´s em cada região é contado e registrado na posição do vetor correspondente à região  N deve ser suficientemente grande para que cada padrão tenha um vetor diferente.
Algoritmo

1-Converter a matriz de zeros e uns em um vetor conforme descrito
2-Calcule a diferença entre os vetores do padrão e o vetor do caracter a ser identificado
3-O padrão que tiver a menor diferença é o escolhido.

Análise

Essa solução melhora bastante a anterior, uma vez que a base de padrões não precisa ser modificada se novos caracteres forem acrescentados. A capacidade de generalização aumenta também, uma vez que procuramos o caracter mais próximo, melhorando a identificação de caracteres de formatos diferentes  do padrão.

Solução 3

Estrutura de dados
  • Matriz de zeros e uns idêntica à da solução 1
  • As letras do padrão a ser identificado serão representadas por meio de descrições feitas via referências na matriz de zeros e uns. Essas descrições podem ser feitas por predicados, como por exemplo:
    • ARCO (C1, C2) (um arco conectando as células 1 e 2 da matriz) AND
    • RETA(C1, C3)   (uma reta conectando as células 1 e 3 da matriz)
Algoritmo

1-Encontre ARCOS e RETAS no caracter a ser identificado e crie a descrição 
2-Selecione o padrão que tenha a descrição mais próxima à criada em 1

Análise

Essa solução é a mais próxima do que se espera de uma solução de Inteligência Artiticial. Os problemas de diferenças de formato e tamanho dos caracteres encontrados nas outras duas soluções são aqui minimizados, sendo portanto, muito mais generalizável. Por outro lado, é mais lento e de implementação muito mais complexa.

Referências


RICH, Elaine. Inteligência artificial. São Paulo: McGraw-Hill, 1988. 

RUSSELL, Stuart J.; NORVIG, Peter. Inteligência artificial. Rio de Janeiro, Elsevier, 2004.


sábado, 30 de julho de 2011

MAS SERÁ QUE DÁ PARA VIAJAR AO FUTURO?

Essa pergunta há muito habita nosso imaginário. A Teoria da Relatividade Restrita, postulada por Einstein em 1905, diz que sim. Entretanto, questões como essa transcendem o senso comum. Assim sendo,  vamos utilizar um cenário simples e intuitivo  para mostrar que o tempo realmente se dilata quando um corpo está em movimento, viabilizando saltos para o futuro. A figura abaixo mostra um feixe de luz partindo do chão de um vagão de trem em movimento, refletindo-se em um espelho colocado no teto do vagão e retornando ao chão. 
Na parte A da figura, temos a visão do caminho desse feixe para um observador localizado fora do vagão e na parte B a visão de um observador dentro do vagão. Na parte A, o feixe de luz tem uma trajetória oblíqua, pois para o observador fora do vagão, o espelho se desloca por uma distância d do momento em que o feixe parte até o momento em que retorna ao chão. Isso ocorre em um intervalo de tempo t. Na parte B, como o observador está dentro do trem, ele não observa o deslocamento do espelho, portanto parece que o feixe percorre uma trajetória perpendicular ao chão e ao teto do vagão, levando um tempo para sair do chão, ser refletido pelo espelho e retornar ao chão.  A velocidade do feixe de luz é c, e segundo a relatividade restrita e é constante para qualquer referencial. O vagão se desloca a uma velocidade v. A altura do vagão é h.  A distância d percorrida pelo vagão no tempo t é:
Na parte A da figura,  temos dois triângulos retângulos idênticos. Aplicando-se o teorema de Pitágoras a eles, a distância total percorrida pelo feixe de luz é:
Na parte B da figura,  é imediato visualizar que a distância total percorrida pelo feixe de luz é:
Obtendo o valor de h em (3) e substituindo-o em (2) chega-se  ao seguinte:
Extraindo-se o valor de em (4), chegamos finalmente a:

Essa é a famosa equação de Lorentz, obtida também por Einstein na Teoria da Relatividade Restrita. Ela mostra claramente que o tempo    para o observador dentro do vagão é menor que o tempo t  para o observador fora do vagão, ou seja, o tempo dentro do vagão transcorre mais devagar do que fora dele. Esse fenômeno é denominado dilatação do tempo, mas somente pode ser observado a  velocidades próximas à da luz (300.000 km/s no vácuo), pois a razão é desprezível   para valores pequenos de v , fazendo com que seja aproximadamente igual a t. Perceba que esse resultado depende fortemente da premissa básica da Relatividade Restrita, de que a velocidade da luz é constante em qualquer referencial: na parte A da figura a velocidade da luz é c e não c + v/cos Ɵ, onde Ɵ é o ângulo entre o feixe de luz e a horizontal. Se assim fosse, obteríamos t´= t e não poderíamos falar em dilatação do tempo.
Vejamos um exemplo prático. Suponha que em um futuro distante, uma nave espacial parta da Terra a uma velocidade igual a dois terços da velocidade da luz (200.000 km/s) em uma jornada de 2 anos. Fazendo-se v =  2c/3 e t = 2 , obtemos da equação de Lorentz,   t´= 1,5 ano. Isso significa que ao retornarem, na Terra teriam se passado dois anos e na nave espacial, um ano e meio, ou seja, os astronautas viajaram 6 meses no futuro! Entretanto, atingir tais velocidades demanda uma quantidade inimaginável de energia, o que inviabiliza viagens próximas à da luz, exceto para corpos com massa extremamente pequena, como as partículas subatômicas. 
Efeitos relativísticos são cosntantemente comprovados na prática. Partículos subatômicas têm seu tempo de vida aumentado devido à dilatação do tempo. Satélites de GPS em órbita da Terra, equipados com relógios atômicos extremamente precisos, devem ter esses relógios periodicamente ajustados para compensar efeitos relativísticos causados pela diferença de gravidade entre suas órbitas e a superfície terrestre. 






quinta-feira, 28 de julho de 2011

Estimativa da Idade Aproximada do Universo

Em 1927, Edwin Hubble estendeu as fronteiras do universo conhecido- nossa galáxia- e  postulou que as galáxias mais distantes se afastam sistematicamente de nós com velocidade proporcional à distância em que se encontram. Como tais escalas de distância são enormes, nós não percebemos tal afastamento.  A constante de proporcionalidade H0  é denominada constante de Hubble. Assim, pode-se escrever que

onde v é a velocidade de afastamento da galáxia em relação a nós e d é a distância em que se encontra de nós.
Medidas efetuadas com o telescópio Hubble têm indicado que o valor atual  da constante de Hubble é

Entretanto, não existe certeza absoluta de que essa constante esteja sendo realmente avaliada com erro menor que 10%. Enquanto permanece essa dúvida, costuma-se normalizar a constante de Hubble da seguinte forma:


A constante  de normalização deve estar no intervalo 
Os resultados mais recentes mostram que

segundo dados obtidos com o telescópio espacial Hubble.
Podemos fazer uma aproximação grosseira da idade do universo, partindo do princípio que em algum momento no passado,  objetos começaram a se afastar um dos outros a partir de um centro. Se supusermos que as velocidades se mantiveram constantes (mera aproximação, pois sabemos que essa velocidade aumenta devido à energia escura), podemos dizer que uma galáxia com velocidade v percorreu nesse período uma distância 
onde th é a denominada idade de Hubble, teoricamente, tempo desde quando o universo começou a se expandir. Assim, substituindo-se (1) e (2) em (3) infere-se que a idade do universo é 

Se h = 0,72 obtemos aproximadamente 13,7 bilhões de anos, como era de se esperar!

Entretanto, nem todos os corpos do universo estão se afastando uns dos outros. No aglomerado de Virgem (visto na figura abaixo), constituído por milhares de galáxias, tais galáxias estão sob a ação gravitacional umas das outras e estão se aproximando.
Aglomerado de Virgem, em foto obtida pelo autor em 15/06/2011às 20:30. 








segunda-feira, 27 de junho de 2011

Em breve, o carro sem motorista

O Estado de Nevada, oeste dos EUA, aprovou uma lei,  em vigor a partir de março do próximo ano,  que prevê a criação de regras para que carros inteligentes- leia-se, sem motorista – possam trafegar pelas ruas e estradas do estado.  Trata-se da primeira tentativa de  regulamentar o uso desse tipo de veículo.
Pesquisas e protótipos dessa tecnologia já existem há um bom tempo no mundo todo. A Google, em especial, tem investido nela e frequentemente seu carro-protótipo-autônomo é visto trafegando pelas ruas da Califórnia.
Carros autônomos são típicos exemplos de agentes inteligentes. Possuem sensores que capturam informações do meio ambiente e atuadores que agem de forma a controlar o veículo, baseados nas informações dos sensores. Esses detectam informações de localização, distância, luminosidade, terreno, velocidade, posição do volante, obstáculos, dentre outras, por meio de aparelhos de GPS, ultra-som, câmeras de alta resolução, giroscópios, bússolas eletrônicas, etc. Esse conjunto de entradas perceptivas do agente, obtido pelos sensores, é denominado  percepção. Uma sequência de  percepções determina a escolha de ações  a serem realizadas pelo agente. Uma função de agente mapeia uma sequência de percepções para uma ação. A lógica que determina esse mapeamento é determinada por um  programa de agente.  Esse recebe a sequência de percepções por meio dos sensores e retornam uma ação a ser realizada pelos atuadores. Em veículos autônomos, esses atuadores são motores de passo que atuam essencialmente sobre a injeção de combustível, freio, câmbio e direção.
Existem várias possibilidades de implementação de programas de agentes para veículos autônomos. Tais programas devem dar uma resposta imediata aos atuadores, em tempo-real, baseada na informação atual proveniente dos sensores. Essa resposta vai depender também, de um objetivo, ou seja, onde o veículo pretende chegar, que determina o caminho  a ser percorrido.  Assim sendo, veículos autônomos são formalmente denominados agentes reativos simples norteados por objetivos.  
Algoritmos de aprendizado artificial, como redes neurais, podem ser utilizados para fazer com que o veículo aprenda, por exemplo, um caminho realizado com freqüência, ou ainda, a localização de obstáculos fixos, diminuindo, consequentemente, a necessidade de informações provenientes dos sensores.
Um possibilidade interessante, em pesquisa nos Estados Unidos, é a colocação de sinalizadores nas margens das vias, que indicariam seus limites. Esses sinalizadores auxiliam na manutenção do veículo na via, simplificando o algoritmo do programa de agente e diminuindo a demanda por informações provenientes de câmeras ou de sensores de ultra-som.
Veja abaixo, o veículo autônomo da Google em funcionamento.

sábado, 18 de junho de 2011

Epistemologia e Geografia

Etimologicamente,  epistemologia significa o estudo das ciências (do grego, epistemé, ciência e logos, estudo). Trata-se em primeira instância do “estudo crítico do desenvolvimento , dos métodos e dos resultados das ciências” [PET82]. Segundo André Lalande, não se trata de estudo dos métodos científicos, objeto da metodologia, nem de síntese ou antecipação conjectural das leis científicas [LAL93].  O pensamento racional e a sistematização, segundo Bachelard, precedem a experiência, mas é esta que faz eclodir as sistematizações racionais. Dentro deste contexto, Lacey [LAC76] postula que a epistemologia deve questionar sobre a natureza e o campo da experiência, das crenças e do conhecimento. Segundo o mesmo, “o conhecimento e as questões centrais da filosofia (O que se sabe e  como se sabe?) formam o principal tópico da epistemologia, auxiliados por noções cognitivas acerca de crença, compreensão, razão, julgamento, sensação , imaginação, suposição e aprendizagem”.

Kant e após ele, Hermann Cohen, inauguraram a epistemologia moderna e destacaram os princípios e os métodos da física newtoniana. Ela foi completada por E. Cassirer, L. Brunschvicg e por J. Vuillemin. Considera-se entretanto, G. Bachelard, o maior epistemólogo francês, o grande teórico da ciência moderna. Ele pregava que o pensamento racional e o esforço de sistematização precedem o contato com a experiência. Entretanto esta experiência faz eclodirem todas as sistematizações racionais. A epistemologia, para ele, seria então uma reflexão sobre as ciências, das quais procura destacar um método universalmente válido que unificaria e simplificaria todas as operações da ciência. Hoje sabe-se que tal intento é utópico, dado o grau de especialização e complexidade atingido pelas diversas disciplinas científicas.

Costuma-se confundir os termo epistemologia e gnoseologia. Eles são semelhantes, na medida em que ambos se ocupam do conhecimento. Entretanto, gnoseologia é utilizado para designar a teoria do conhecimento em quaisquer de suas formas, ao passo que epistemologia designa a teoria do conhecimento quando o objeto desta são as ciências.
Segundo Virieux-Remond [VIR72] o estudo da epistemologia complicou-se na atualidade, por causa da multiplicação incessante das disciplinas que surgiram graças aos seguintes movimentos:

-De especialização no interior das disciplinas existentes, por exemplo, a química macromolecular é uma especialização da química.

-De criação de ciências agrupadas, como por exemplo, a cibernética, que aparece como resultante da intersecção entre a mecânica, a psicologia, a matemática e a eletrônica.

-De redescoberta de disciplinas deslocadas pela especialização, por exemplo, a ótica, reconstituída pela ciência da visão.

Johnston [JOH85] ressalta que a epistemologia procura as formas de conhecimento possíveis e as condições nas quais o conhecimento válido pode ser atingido. Ou seja, as epistemologias procuram a correspondência entre o domínio do conhecimento (conceitos, proposições) e um domínio de objetos (coisas,  experiências). Na geografia moderna, o termo tem sido utilizado para examinar “como o conhecimento geográfico é obtido, transmitido, alterado e integrado a sistemas conceituais, mais especificamente, para questionar o campo de sistemas filosóficos e teóricos em particular dentro de uma disciplina [JOH85].”  A filosofia de uma disciplina envolve o estudo das formas nas quais trabalho é conduzido dentro de determinados limites disciplinares. A epistemologia é o elemento central nesta filosofia.

No passado a geografia não estava privada de uma problemática epistemológica, pois tinha os objetivos do conhecimento, dos modos de aquisição e organização de dados observados, dos procedimentos de controle de resultados obtidos e todos os elementos necessários e suficientes para estimular as questões acerca da natureza, da forma, do conteúdo e da estabilidade de sua própria ontologia. Na verdade, é a ausência de uma explicitação que nos faz crer em uma falta ou vazio. A passagem da geografia clássica para a nova geografia  desencadeou uma reflexão epistemológica: houve a necessidade de redefinição de conceitos, métodos e modelos que conduziu a uma explicitação epistemológica [FER95].

Segundo Pombo [POM97], a epistemologia pode ser classificada em quatro categorias:

-Epistemologias gerais e regionais . Esta categoria diz respeito ao âmbito de uma epistemologia, à extensão do seu campo de análise. Numa perspectiva generalista considera-se a ciência na sua totalidade. Trata-se de uma epistemologia que procura pensar a ciência na sua globalidade ou as ciências no seu conjunto.

As primeiras epistemologias foram as regionais que, muitas vezes, surgiram sob a forma de história – da matemática, por exemplo. Foi Augusto Comte quem formulou, no século XIX, a primeira concepção generalista da ciência. Para este autor, as várias ciências são expressão da atividade do espírito humano, embora cada uma tenha a sua especificidade. Por esta razão, se pode fazer a epistemologia da física, da matemática, das ciências humanas, mas, para conseguir uma verdadeira compreensão da ciência, é necessário articular todas essas disciplinas e reconhecer a sua ligação a um núcleo fundamental. Kuhn é o outro autor que se integra nesta perspectiva na medida em que os seus trabalhos, embora incidam sobretudo sobre a Física, dizem respeito à ciência em geral, procurando explicá-la na globalidade e não numa área científica em particular.
Numa perspectiva regionalista considera-se uma ciência em particular como a matemática, a biologia, a geografia, entre outras.

-Epistemologias continuistas e descontinustas -Esta categoria diz respeito ao modo como é entendido o progresso da ciência. Segundo os continuistas a ciência progride sem sobressaltos uma vez que cada teoria contém os fragmentos, as bases ou os embriões da teoria seguinte. Os epistemólogos defensores desta perspectiva procuram compreender como é que uma teoria engendra ou prolonga uma outra, estabelecendo relações de filiação entre elas. O continuista tende, portanto, a considerar as mudanças qualitativas como resultantes de um acréscimo quantitativo, que se constitui de uma forma uniforme, numa escala sempre ascendente. O progresso será então uma lenta e contínua aquisição de novas verdades em que umas proposições engendram outras procurando mostrar de que modo uma proposição mais recente tem as suas raízes em teorias mais antigas e, por sua vez, abre para o futuro um leque de possibilidades.

De acordo com os descontinuistas a ciência progride através de rupturas, por negação de teorias anteriores. Estas epistemologias estão especialmente atentas não às filiações mas às rupturas, não aquilo que liga as teorias entre si mas aquilo que as separa. O progresso dos conhecimentos científicos faz-se através de rupturas, isto é, através de grandes alterações qualitativas que não podem ser reduzidas a uma lógica de acréscimo de quantidades; faz-se através de momentos em que se quebra a tradição e em que esta é substituída por uma nova teoria. Enquanto que, as primeiras epistemologias são predominantemente continuistas, este modo descontinuista de conceber a ciência é muito característico das últimas cinco décadas.
Para Bachelard, por exemplo, o progresso da ciência faz-se “dizendo não” às teorias e concepções anteriores. A descontinuidade da ciência revela-se em muitos aspectos, por exemplo, nas técnicas que podem ser diretas ou indiretas; nos conceitos que evoluem no sentido de uma maior racionalidade; nos métodos, nos próprios objetos que, de existentes na natureza, passam cada vez mais a ser fruto da criação intelectual do cientista. Segundo Kuhn, outro descontinuista, não é apenas a teoria que muda, mas sim todo o paradigma. Há descontinuidades no próprio modo de pensar o mundo, nas decisões metafísicas que o fundamentam, nas práticas científicas comuns a uma determinada comunidade.

-Epistemologias cumulativistas e não cumulativistas-Esta categoria diz respeito ao modo como é entendida a relação temporal que se estabelece entre a ciência e a verdade.Os epistemólogos cumulativistas defendem que a ciência é progressiva, resultado de um acréscimo de saber, de uma acumulação de conhecimentos que se processa ao longo da escala do tempo. Durante esta progressão, a ciência aproxima-se cada vez mais da verdade, cada nova teoria sendo mais verdadeira que a anterior. Esta perspectiva pode ou não admitir a existência de rupturas na ciência, ou seja, estar articulada com concepções descontinuistas (em que cada novo estádio, determinado por uma fase de ruptura, está mais próximo da verdade que o anterior) ou, pelo contrário, conceber de forma contínua o acréscimo de saber característico do conhecimento científico.

Bachelard é nitidamente um filósofo cumulativista. Ele defende que a ciência cresce ao longo do tempo através de um processo de acumulação de conhecimentos. É importante frisar porém que, segundo este autor, tal crescimento da ciência em direção à verdade não se faz por justaposição mas sim por reorganização dialética.

Numa perspectiva não cumulativista cada nova teoria não é necessariamente mais verdadeira que as anteriores, constitui apenas uma outra maneira de ver o mundo. Aliás, a questão da proximidade em relação à verdade não é relevante. O que importa é avaliar de que modo, cada nova teoria, além de constituir uma diferente maneira de pensar o mundo, possui um campo de aplicação maior ou menor que as anteriores.
Para Kuhn não é possível nem sequer importante saber se um dado paradigma é mais verdadeiro que os outros; interessa é saber que esse paradigma é outra maneira de pensar o mundo e outro o seu campo de aplicação. O ideal seria ter vários paradigmas disponíveis com os seus vários campos de aplicação. O facto de um paradigma vir depois do outro não significa que seja mais verdadeiro, significa muito simplesmente que é outro. Em paradigmas passados consideram-se alguns fenômenos que os actuais não conseguem explicar. Perante a física Newtoniana e a física da relatividade um epistemólogo cumulativista dirá que a segunda é mais verdadeira do que a primeira porque é mais fiel em relação ao que efetivamente ocorre na natureza. Um epistemólogo não cumulativista, como Kuhn, tenderá pelo contrário, a dizer que constituem dois paradigmas diferentes que correspondem a duas maneiras diferentes de conceber o mundo e praticar a ciência.

-Epistemologias internalistas e externalistas -Esta categoria diz respeito ao tipo de relação que se estabelece entre a ciência e as restantes atividades humanas. Para os internalistas a ciência constitui uma forma autônoma do conhecimento. A sua especificidade é tão grande que é possível, e  em alguns casos indispensável até, entendê-la abstraindo de tudo aquilo que a rodeia. A ciência deve ser pensada, argumentam os internalistas, em função do desenvolvimento dos seus próprios objetos, leis, métodos e processos. Ao entrar com outros fatores externos perturba-se a compreensão de uma construção intelectual que vale por si, que tem a sua própria força, a sua própria dinâmica. A ciência deve pois ser estudada independentemente de quem a produz e das condições históricas da sua emergência. Bachelard tem claramente uma posição internalista. Para ele, a ciência é um continente muito próprio, muito específico e por isso, o seu desenvolvimento deve ser visto independentemente da biografia de quem a faz e do contexto em que ela se produz.

Numa perspectiva externalista a ciência é uma atividade humana que para ser compreendida, necessita  ser inserida no conjunto mais amplo de todas as atividades humanas. Ao estudar a ciência de uma determinada época há que estudar a estrutura social, a relação das classes, o modo de produção, a personalidade dos cientistas, os sistemas artísticos e culturais dessa época.
Dentro de uma perspectiva externalista, Ziman concebeu um modelo de ciência que apresenta três dimensões essenciais: psicológica, filosófica e sociológica. Na mesma linha, o epistemólogo francês Koyré afirma que só se entenderá a ciência e o seu progresso se se entender a cultura humana na qual ela nasceu, a cujas necessidades responde, as técnicas a que dá origem e que, por sua vez, vão interferir nas próprias condições humanas.

A geografia  evoluiu na maior parte de sua história dentro da concepção epistemológica descontinuista, já que observam-se rupturas epistemológicas notáveis principalmente na passagem da geografia primitiva para a greco-romana, na passagem da geografia renascentista para a geografia clássica e na passagem da geografia clássica para a geografia teorético-quantitativa. Atualmente podemos observar uma tendência à epistemologia cumulativista, já que a geografia atravessa uma fase de pluralidade de paradigmas e de tendências.

Referências
[FER95] FERREIRA, C.F. A Evolução do Pensamento Geográfico. Lisboa, Gradiva, 1995.

[JOH86]-JOHNSTON, D.J. Geografia e Geógrafos. São Paulo, DIFEL, 1986
[LAC76] LACEY, A. R. A Dictionary of Philosophy. London, Rotledege 

& Keegan Paul, 1976

[LAL93] LALANDE, A. Vocabulário Técnico e Crítico da Filosofia. São Paulo, Martins Fontes, 1993 


[PET82] Petit Larousse Illustré. Paris, Librairie Larousse, 1982.
[POM97] POMBO,O. Apontamentos Sobre o Conceito de Epistemologia e o Enquadramento Categorial da Diversidade de Concepções de Ciência. Lisboa, 1997.

[VIR72]VIRIEUX-REYMOND, A. Introduction à l’Épistemologie. Paris, PUF, 1972.

quarta-feira, 8 de junho de 2011

Erupção Solar Espetacular em 07/06/2011

Em 07 de junho de 2011 desencadeou-se uma tempestade solar tipo M-2 (tamanho médio) com uma espetacular ejeção de massa coronal (CME). A grande nuvem de partículas multiplicou-se e caiu de volta sobre a superfície do sol, cobrindo uma área de quase metade da mesma. O fenômeno foi observado pelo SDO-Solar Dynamic Observatory, da NASA.

O pico da tempestade ocorreu por volta de 1:41 ET (2:41 no horário de Brasília). Foram também registradas imagens em ultravioleta, que revelaram uma grande explosão de gás frio.  Trata-se de  algo único, pois em muitos lugares na erupção parece haver material ainda mais frio - a temperaturas inferiores a 80.000 K.

Quando visto pelos coronógrafos, o evento mostra plasma brilhante e partículas de alta energia saindo do sol. Esta CME desloca-se  a 1.400 km / s de acordo com modelos da NASA. Devido ao seu ângulo, entretanto, efeitos sobre a Terra devem ser bastante reduzidos. No entanto, pode gerar efeitos espaciais, como auroras aqui na Terra, em poucos dias.
 

FONTE:NASA-SDO http://sdo.gsfc.nasa.gov/gallery/potw.php?v=item&id=54