terça-feira, 15 de outubro de 2013

A incrível, heróica e triste história do inventor do computador - Alan Turing.

O que dizer de um homem que criou a teoria da computação e, não satisfeito, arregaçou as mangas e assumiu um papel central na construção dos primeiros computadores? De um matemático que venceu com cálculos as bombas de Hitler?


No mínimo, que merecia uma estátua no Vale do Silício, um enterro com glórias de herói, que seu nome deveria virar nome de ruas, avenidas e universidades. Mas esse homem morreu esquecido.

Alan Turing nasceu em 1912, em Londres. Turing se aplicou faculdade de Matemática, e tornou-se conhecido dos professores de Cambridge por seu raciocínio brilhante.

Em 1937, publicou um artigo Sobre as Máquinas Computáveis que teve uma importância enorme para a matemática pura: nele, provava que existiam cálculos impossíveis de serem feitos. Mas também trazia uma aplicação prática que ninguém, na época, percebeu. Turing imaginara uma máquina capaz de fazer todos os cálculos possíveis, desde que lhe dessem as instruções adequadas. O artigo não fazia menção a chips ou processadores continha apenas fórmulas matemáticas. Mas a descrição era exatamente daquilo que, mais tarde, mudaria o mundo com o nome de computador.

Por falar em mudar o mundo, naquele momento surgia um austríaco obcecado por impor suas idéias ao planeta: Adolf Hitler. Um de seus trunfos era uma máquina chamada Enigma um sistema de engrenagens capaz de embaralhar as letras das mensagens antes da transmissão por telégrafo. Os alemães consideravam esse código indecifrável. Caberia a Turing, convocado em 1939 pelo exército britânico, decifrá-lo.

Os submarinos alemães afundavam 200.000 toneladas de embarcações todo mês e o único jeito de descobrir a posição dos submarinos era decifrar suas mensagens.

Turing tirou da cabeça as máquinas teóricas e sujou as mãos na graxa de engenhocas reais. Uma delas, o Colossus, é tataravó do PC no qual digito agora. No começo, elas demoravam semanas para tornar uma mensagem compreensível.

Mas, em 1942, os ingleses já decodificavam 50 000 mensagens por mês, uma por minuto. Os submarinos alemães eram abatidos como moscas. O preconceituoso Hitler, cuja equipe olímpica tinha sido derrotada em 1936 pelo atleta negro, o americano Jesse Owens, perdia a guerra para um intelectual homossexual.

Alguns afirmam que o trabalho de Turing encurtou a guerra em pelo menos três anos. Era comum comandantes aliados terem em mãos mensagens antes que elas chegassem aos destinatários alemães. 

Quando a polícia condenou Turing em 1952 por grande indecência, em outras palavras, homossexualismo, ninguém o defendeu dizendo que se tratava de um herói de guerra ou gênio da matemática. Para enfrentar o julgamento, teve que se afastar de suas pesquisas sobre inteligência artificial, e Turing acabou condenado a um tratamento com hormônios que arruinou seu físico.

Na noite de 7 de junho de 1954, atormentado, o matemático deitou-se na cama e mordeu uma maçã. Na manhã seguinte, não acordou. A fruta havia sido mergulhada numa jarra de cianeto.

A associação da maçã com conhecimento se tornou popular com Isaac Newton, porém, a famosa mordida na maçã significa a aquisição do conhecimento. Pelo lado bíblico, simbolizaria a sedução provocada pelos seus produtos e a busca por nossos desejos.

A mordida na maçã do Turing com as cores do movimento gay, gera a possibilidade de que o logo de uma grande empresa de computadores seja uma homenagem à Turing. Maçã em inglês é apple, e há um trocadilho: mordida em inglês é bite, que obviamente lembra byte. E byte, é coisa de computador. 

De qualquer forma, o inventor do computador salvou o mundo do nazismo, e sua recompensa foi uma cela de prisão, condenado por homossexualismo.




Em 11 de Setembro de 2009, o primeiro-ministro britânico, Gordon Brown, ofereceu um pedido póstumo de desculpas ao matemático Alan Turing, pelo tratamento "desumano" que recebeu das autoridades britânicas e que o levou ao suicídio em 1954.

segunda-feira, 9 de setembro de 2013

OSI

Explicação sobre o modelo OSI e as camadas presentes no modelo.

Camadas do Modelo OSI "Open System Interconnetcion"


Quando houve o surgimento das redes de computadores, não havia uma padronização de dispositivos de protocolos.
Com o aumento do número de rede e computadores nos anos 80, por conta das empresas tomarem conhecimento sobre as vantagens de utilização das tecnologias de rede e seus benefícios, houve a necessidade de serem realizadas interligações com outras empresas e filiais, deixando a tecnologia sem condições de evoluir junto com o desenvolvimento das empresas, causando sérios problemas por conta do rápido crescimento.
As redes de computadores tornaram-se incompatíveis para se comunicarem entre elas, pelo motivo de utilizarem diferente tecnologias e especificações para poderem trocar informações. Existem ainda empresas que possuíam tecnologias proprietárias que não eram compatíveis com tecnologias de outros fabricantes.

Diante dessa necessidade, surgiu o modelo que veio para solucionar o problema de incompatibilidades entre as tecnologias de diferentes fabricantes, dando início ao surgimento do modelo de referência da "OSI" - Open System Interconnection, no ano de 1984. Este modelo propiciou às empresas e fabricantes uma padronização a fim de garantir compatibilidade coerente e ininterrupta entre as diversas tecnologias de rede construídas por diversas empresas em todo o mundo.




O Modelo OSI é formado por camadas a fim de fazer a decomposição das partes funcionais das redes, buscando simplificar e tornar mais acessível o entendimento de cada parte, e também buscar uma padronização dos componentes de rede, viabilizando o desenvolvimento, suporte e compatibilidade por conta dos diversos tipos de fabricantes existentes no mercado
Outra funcionalidade é viabilizar uma comunicação íntegra entre tipos diferentes de hardware e de software de rede, tornando a comunicação sincronizada entre si, bem como impedir que as mudanças realizadas em uma determinada camada possam afetar outras camadas. Sendo também necessário sintonizar a compreensão do aprendizado sobre redes de computadores a partir da fragmentação do conhecimento em pequenas partes.


Abaixo temos a explicação das Camadas existentes em um Sistema OSI:


Na Camada Física são definidas as características do meio físico de transmissão de rede, como cabos, conectores, interfaces, codificação e técnica de modulação de sinal.

Na Camada de Enlace de Dados é realizado o procedimento de agrupamento e montagem dos bits, transformando-os em pacotes (quadros) num formato apropriado à técnica de transmissão da rede e também realiza o controle de acesso ao meio físico de transmissão e o controle de fluxo de dados entre as estações em nós da rede, realizando inclusive controle de erros.

Na Camada de Rede esta camada é responsável por definir e estabelecer caminhos de uma rede para outra, ou melhor, guia os pacotes com destinos a outras redes permitindo o fluxo de ida e vinda dos dados.

A Camada Transporte é responsável pelo de controle de entrega dos pacotes fim a fim de um enlace de dados, prezando para que o pacote seja entregue de forma íntegra.

A Camada Sessão é responsável por estabelecer, manter e coordenar o intercâmbio de dados entre emissor e receptor durante todo o processo em que é estabelecida uma sessão de comunicação possibilitando a compreensão de dados.

A Camada de Apresentação faz a contribuição para realização da codificação e descodificação dos dados dentro de sua formação individual procedendo com a conversão de formatos entre os diferentes tipos de sistemas.

Já a Camada de Aplicação é responsável por estabelecer uma interface entre o software de aplicação possibilitando uma interligação com as camadas inferiores.










topologia de rede de computadores

O que é uma topologia de rede de computadores?


É a forma como a rede se apresenta fisicamente. A topologia de rede descreve o modo como todos os dispositivos estão ligados entre si, bem como se processa a troca de informações entre si.
A escolha da topologia mais adequada a um determinado sistema é feita pela análise dos seus objetivos e necessidades.
A topologia de rede é o padrão no qual o meio de rede está conectado aos computadores e outros componentes de rede. Essencialmente, é a estrutura topológica da rede, e pode ser descrito fisicamente ou logicamente.
Há várias formas nas quais se pode organizar a interligação entre cada um dos nós (computadores) da rede. A topologia física é a verdadeira aparência ou layout da rede, enquanto que a lógica descreve o fluxo dos dados através da rede.




Construção de um quadro comparativo com as vantagens e desvantagens das seguintes topologias de redes: anel, barramento, estrela e mesh?   
 Topologia de Anel
Na topologia em anel os dispositivos são conectados em série, formando um circuito fechado (anel). Os dados são transmitidos unidirecionalmente de nó em nó até atingir o seu destino. Uma mensagem enviada por uma estação passa por outras estações, através das retransmissões, até ser retirada pela estação destino ou pela estação fonte.
Vantagens:
  • Todos os computadores acessam a rede igualmente;
  • Performance não é impactada com o aumento de usuários.
Desvantagens:
  • Falha de um computador pode afetar o restante da rede;
  • Problemas são difíceis de isolar.  
 
 
Topologia de Barramento
Todos os computadores são ligados em um mesmo barramento físico de dados. Apesar de os dados não passarem por dentro de cada um dos nós, apenas uma máquina pode “escrever” no barramento num dado momento. Todas as outras “escutam” e recolhem para si os dados destinados a elas. Quando um computador estiver a transmitir um sinal, toda a rede fica ocupada e se outro computador tentar enviar outro sinal ao mesmo tempo, ocorre uma colisão e é preciso reiniciar a transmissão.
  • Vantagens:
    • Uso de cabo é econômico;
    • Mídia é barata e fácil de trabalhar e instalar;
    • Simples e relativamente confiável;
    • Fácil expansão.
     
  • Desvantagens:
    • Rede pode ficar extremamente lenta em situações de tráfego pesado;
    • Problemas são difíceis de isolar;
    • Falha no cabo paralisa a rede inteira.
     





Topologia Estrela

A mais comum atualmente, a topologia em estrela utiliza cabos de par trançado e um concentrador como ponto central da rede. O concentrador se encarrega de retransmitir todos os dados para todas as estações, mas com a vantagem de tornar mais fácil a localização dos problemas, já que se um dos cabos, uma das portas do concentrador ou uma das placas de rede estiver com problemas, apenas o nó ligado ao componente defeituoso ficará fora da rede.

  • Vantagens:
    • A codificação e adição de novos computadores é simples;
    • Gerenciamento centralizado;
    • Falha de um computador não afeta o restante da rede.

  • Desvantagem:
    • Uma falha no dispositivo central paralisa a rede inteira.
     
Topologia Mesh


Esta topologia é muito utilizada em várias configurações, pois facilita a instalação e configuração de dispositivos em redes mais simples. Todos os nós estão atados a todos os outros nós, como se estivessem entrelaçados. Já que são vários os caminhos possíveis por onde a informação pode fluir da origem até o destino.
  • Vantagens:
    • Maior redundância e confiabilidade;
    • Facilidade de diagnóstico.

  • Desvantagem:
    • Instalação dispendiosa.



TOPOLOGIA DE REDE


O termo topologia, ou mais especificamente, topologia de rede, refere-se à disposição física de computadores, cabos e outros componentes de rede.

A escolha de uma topologia em detrimento de outra resulta em vários factores que devem ser considerados, como por exemplo:
· Tipo de equipamento que a rede precisa;
· Capacidade do equipamento;
· Crescimento da rede;
· Maneira pela qual a rede é gerida. 


TOPOLOGIA EM ESTRELA

Numa topologia em estrela, vamos ter uma identidade central ao sistema que tanto pode ser um server ou um simples computador munido de alguma “inteligência”.
Vantagens:
  • Maior autonomia de cada nó;
  • Funções centralizadas para equipamento de diagnóstico.
 Desvantagens:
  • Necessitam de uma maior quantidade de cabo;
  • No caso de uma unidade central não ser um file server obriga a aquisição de uma unidade de comutação que por si só representa um gasto extra, que não se verifica em nenhuma outra topologia.


    TOPOLOGIA EM ANEL



    Uma rede em anel, é basicamente um conjunto de estações de trabalho ligadas a um anel de cabo. As topologia em anel são raramente utilizadas em redes locais pelo facto de não oferecerem um ponto de gestão da rede central à mesma.
    Vantagens:
  • Pelo dispositivo de redirecionamento pode ser enviada a informação no sentido oposto ao normal, em caso de avaria numa linha;
  • Utilizam cabo de uma forma mais eficiente e econômica quando se cobre uma área geograficamente grande.
 Desvantagens:
        
  •   A não existência de uma zona central para monitorização da rede.

    Topologia Ponto a Ponto

    Nas redes ponto a ponto, existe uma ligação física entre os dois equipamentos em comunicação. Este tipo de ligação é o mais utilizado quando uma boa performance é o objectivo principal na escolha da rede.
     

 Topologia em BUS

A topologia em BUS é a forma mais simples de implantar uma rede de multi-nós. Esta topologia é limitada ao número de nós que pode suportar em cada troço.
Vantagens:
  • Utilização de uma quantidade mínima de cabo;
  • As partes de hardware necessárias não são dispendiosas.
Desvantagens:
Um cabo danificado ou um nó de inferior qualidade pode danificar uma rede inteira.

O QUE SÃO REDES DE COMPUTADORES

 
Uma rede de computadores é um sistema de comunicação de dados constituído através da interligação de computadores e outros dispositivos, com a finalidade de trocar informações e partilhar recursos.
O funcionamento de uma rede de computadores implica um determinado conjunto de meios físicos (hardware) e determinados componentes de software.

Ao nível dos Meios Físicos ou Hardware uma rede necessita de:
  •  Computadores - periféricos (que se pretende utilizar, tais como: discos, impressoras, modems,  etc.);
  •  Meios físicos de transmissão - trata-se, normalmente, de cabos que interligam os computadores; no entanto, também são possíveis sistemas de comunicação sem fios, através de ondas propagadas no espaço;
  •  Dispositivos de ligação dos computadores às redes: placas de interface de rede, modems e/ou outros dispositivos;

Ao nível de Software, uma rede de computadores normalmente implica:
  •  Drivers de placas de rede - peças de software que complementam o sistema operativo do computador, no sentido de este poder comunicar com a placa ou interface de rede;
  •  Protocolos de comunicação - normas convertidas em software que tornam possível tecnicamente a transmissão de dados entre os computadores envolvidos numa comunicação;
  •  Sistemas operativos que interligam os módulos de software necessários para trabalho em rede;
  •  Utilitários e programas de aplicação vocacionados para trabalho em rede.

terça-feira, 30 de agosto de 2011

IBM apresenta memória 100 vezes mais rápida que flash

Vários grupos de pesquisadores vêm trabalhando com afinco nas memórias de mudança de fase, ou PCM (Phase Change Memory).
Como as memórias flash usadas em virtualmente todos os eletrônicos portáteis, as memórias PCM não perdem os dados quando desligadas - com a vantagem de consumir menos energia e ter potencial para serem muito mais rápidas.
Agora, pela primeira vez, cientistas da IBM conseguiram armazenar múltiplos bits em uma mesma célula PCM, de forma confiável e duradoura.
Deriva de resistência
Os cientistas da IBM em Zurique, na Suíça, usaram avançadas técnicas de modulação para contornar o problema da chamada deriva de resistência nas células de memória PCM.
Esse problema faz com que os níveis de resistência armazenados mudem ao longo do tempo, o que gera erros de leitura.
Até agora, a retenção de dados confiável só havia sido demonstrada para um único bit por célula PCM.
Na prática, o avanço consiste na utilização de um software para corrigir os erros, que continuam ocorrendo.
Múltiplos bits por célula
Como seu nome indica, uma memória de mudança de fase armazena os bits pela alteração de fase - amorfa ou cristalina - do material usado em sua construção, uma liga de vários elementos.
Esse material é colocado entre dois eletrodos. A mudança de fase, e sua reversão, é induzida pela aplicação de uma tensão ou de pulsos de corrente de diferentes intensidades.
Dependendo da tensão, mais ou menos material entre os eletrodos é submetido à mudança de fase, o que afeta diretamente a resistência da célula.
Os cientistas exploraram esse aspecto para guardar não apenas um bit, mas vários bits por célula.
Usando quatro níveis de resistência distintos foi possível armazenar as combinações de bits "00", "01", "10" e "11".
Usando os dois melhoramentos, os cientistas da IBM conseguiram anular a deriva de resistência e demonstrar a retenção a longo prazo dos bits armazenados em um chip com 200.000 células PCM, fabricado com tecnologia CMOS de 90 nanômetros.
Memória 100 vezes mais rápida
Há muito se procura uma tecnologia de memória universal, não-volátil - que não perde dados quando a energia é desligada - com um desempenho superior à flash, a tecnologia de memória não-volátil mais usada hoje.
Isto permitirá que os computadores inicializem instantaneamente, além de melhorar significativamente o desempenho global dos sistemas de TI.
A memória PCM é um dos candidatos nessa corrida, bastante promissora por ser capaz de gravar e recuperar dados 100 vezes mais rápido do que as memórias flash.
Outra vantagem é que as memórias PCM são muito mais resistentes do que as flash, podendo suportar pelo menos 10 milhões de ciclos de escrita, em comparação 30.000 ciclos das flash de categoria empresarial ou 3.000 ciclos das flash de categoria consumidor, como as que equipam câmeras fotográficas e pendrives.
Enquanto 3.000 ciclos supera a vida útil de muitos equipamentos eletrônicos de consumo, 30.000 ciclos é muito pouco para aplicações empresariais.
Os pesquisadores estimam que as memórias PCM poderão estar no mercado dentro de cinco anos.