domingo, 18 de abril de 2010

TECNOLOGIA RAID

Tecnologia
RAID



Trabalho apresentado por Robson Furtunato e Mariana de Paula
para a Disciplina de Análise De Sistemas
Turma Análise de Sistemas
2° Período Noturno.



A tecnologia RAID inicialmente foi feito para servidores, hoje muitas placas-mãe já vêm com um Chip RAID onbord.
RAID foi desenvolvida pela IBM em 1978, buscando confiabilidade e segurança de sistemas. RAID “Redundant Array of Independent Disks”, ou seja, “Matriz Redundante de Discos Independentes”. Tecnologia que combina vários discos rígidos (HDs) para formar uma única unidade lógica, onde os mesmos dados são armazenados. Se um disco tiver problemas, os demais continuam funcionando, disponibilizando os dados, ganhando segurança e melhor desempenho.
Apesar de oferecer segurança e confiabilidade, o RAID não protege contra falhas de energia ou erros de operação.
Para formar o RAID é preciso pelo menos 2 HDs. Quando há gravação, os dados se repartem entre os discos do RAID, porem depende do nível.

RAID 0, conhecido como divisão de dados, que aumenta o desempenho do seu disco. Divide arquivos em vários pedaços (chamados divisões ou “striping”) e salva cada pedaço em um disco diferente, é o mais rápido, pois a leitura e gravação são distribuídas. Quanto mais discos houver, mais velocidade é obtida.
Vantagens:
- Acesso rápido as informações (até 50% mais rápido).
- Custo baixo para expansão de memória.
Desvantagens:
- Caso algum dos setores apresente falhas, causa perda de informações, pois algum arquivo foi corrompido.

RAID 1 - não aumenta o desempenho de disco, mas serve para aumentar a confiabilidade dos dados armazenados no micro, copia tudo o que é enviado para o primeiro disco no segundo disco rígido, é conhecido como espelhamento. O desempenho é um pouco prejudicado, no entanto, a leitura dos dados é acelerada, pois temos dois discos lendo o mesmo arquivo. É uma forma bem segura, mas também a mais cara, sendo que apenas 50% do espaço disponível são aproveitados.
Vantagens:
- Caso um dos discos venha a falhar, basta recuperar os arquivos contidos no segundo disco.
Desvantagens:
- Custo alto e aumento no tempo de escrita.

RAID 2 - mecanismo de detecção de falhas em discos rígidos para funcionar em memória. O RAID 2 é pouco usado, pois os discos rígidos novos saem de fábrica com mecanismos de detecção de falhas implantados.
Vantagem:
- Usa ECC.
Desvantagem:
- Hoje em dia há tecnologias melhores para o mesmo fim.

RAID 3 - os dados são divididos entre os discos da matriz, exceto um, que armazena informações de paridade (acréscimo de 1 bit, que permite identificar erros) armazenada em disco específico, assim é possível assegurar a integridade dos dados, em caso de recuperação. O uso de dados divididos entre vários discos oferece altas taxas de transferência e confiabilidade das informações. Para usar o RAID 3, pelo menos 3 discos (HDs) são necessários.
Vantagens:
- Leitura rápida
- Escrita rápida
- Possui controle de erros
Desvantagem:
- Montagem difícil via Software

RAID 4 - divide os dados entre os discos, sendo que um é exclusivo para paridade, em caso de falha de um dos discos, os dados podem ser reconstruídos em tempo real, cada um pode ser acessado de forma independente, é indicado para o armazenamento de arquivos grandes. Neste nível, cada operação de gravação requer um novo cálculo de paridade, dando maior confiabilidade ao armazenamento.
Vantagens:
- Taxa de leitura rápida
- Possibilidade do aumento de área de discos físicos.
Desvantagens:
- Taxa de gravação lenta
- Em caso de falha do disco, a reconstrução é difícil.
- Tecnologia não mais usada, por haver melhores para o mesmo fim.

RAID 5 – Melhor relação custo x desempenho x segurança, necessidade de no mínimo 3 discos. As informações são gravadas em cada disco, se um dos integrantes da matriz falhar, as informações podem ser reconstruídas, é o nível mais utilizado e que oferece resultados satisfatórios em aplicações não muito pesadas.
Vantagens:
- Maior rapidez com tratamento de ECC
- Leitura rápida (porém escrita não tão rápida).
Desvantagem:
- Sistema complexo de controle dos HDs.

RAID 6 – Padrão relativamente novo é semelhante ao RAID 5, porém usa o dobro de bits de paridade, garantindo a integridade dos dados caso até 2 HDs falhem ao mesmo tempo.
Vantagem:
- Possibilidade falhar 2 HDs ao mesmo tempo sem perdas
- Precisa de n+2 HDs para implementar por causa dos discos de paridade
- Escrita lenta
- Sistema complexo de controle dos HDs.

Vantagens
- Maior rapidez com tratamento de ECC
- Leitura rápida (porém escrita não tão rápida).


Tipos de RAID
Existem 2 tipos de RAID, um baseado em hardware e o outro baseado em software. Cada um possui vantagens e desvantagens.
RAID baseado em software não é muito utilizado, pois apesar de ser menos custoso, é mais lento, possui mais dificuldades de configuração e depende do sistema operacional para ter um desempenho satisfatório. Este tipo ainda fica dependente do poder de processamento do computador em que é utilizado. O RAID por hardware é sem dúvida a maneira mais eficiente de implementar matrizes de discos rígidos e qualquer sistema operacional pode reconhecer uma matriz desse tipo, como se fosse um HD simples.

HARD DISK

HARDDISK
HD


Trabalho apresentado por Idenilson Jose
Melo e Ronny Czerkus para a
Disciplina de Análise De Sistemas
INTRODUÇÃO


O disco rígido ou HD (Hard Disk), é o dispositivo de armazenamento de dados mais usado nos computadores. Nele, é possível guardar não só seus arquivos como também todos os dados do seu sistema operacional, sem o qual você não conseguiria utilizar o computador de uma forma confortavel. Neste artigo, você verá alguns detalhes do funcionamento dos HDs e conhecerá alguns de seus recursos.


Surgimento

O disco rígido não é um dispositivo novo, mas sim uma tecnologia que evoluiu com o passar do tempo. Um dos primeiros HDs que se tem notícia é o IBM 305 RAMAC. Disponibilizado no ano de 1956, era capaz de armazenar até 5 MB de dados (um avanço para a época) e possuía dimensões enormes: 14 x 8 polegadas. Seu preço também não era nada convidativo: o 305 RAMAC custava cerca de 30 mil dólares.




















Com o passar dos anos, os HDs foram aumentando sua capacidade de armazenamento, ao mesmo tempo em que se tornaram menores, mais baratos e mais confiáveis. Apenas para ilustrar o quão "gigante" eram os primeiros modelos, a foto abaixo mostra um disco rígido utilizado pelo Metrô de São Paulo em seus primeiros anos. O dispositivo está em exposição no Centro de Controle Operacional da empresa:





























Componentes de um HD

Para que você possa compreender o funcionamento básico dos discos rígidos, precisa conhecer seus principais componentes. Os tão mencionados discos, na verdade, ficam guardados dentro de uma espécie de "caixa de metal". Essas caixas são seladas para evitar a entrada de material externo, pois até uma partícula de poeira pode danificar os discos, já que estes são bastante sensíveis. Isso significa que se você abrir seu disco rígido em um ambiente despreparado e sem o uso dos equipamentos e das técnicas apropriadas, as chances de você perdê-lo são extremamente grandes.























A figura acima mostra um HD visto por baixo e por cima. Note que a parte inferior contém uma placa com chips. Trata-se daplaca lógica, um item muito importante para o funcionamento do HD.
A placa lógica contém chips responsáveis por diversas tarefas. O mais comum é conhecido como controladora, pois gerencia uma série de itens do HD, como a movimentação dos discos e das cabeças de leitura/gravação (mostradas adiante), o envio e recebimento de dados entre os discos e o computador, e até rotinas de segurança.
Outro dispositivo comum à placa lógica é um pequeno chip de memória conhecido como buffer. Cabe a ele a tarefa de armazenar pequenas quantidades de dados durante a comunicação com o computador. Como esse chip consegue lidar com os dados de maneira mais rápida que os discos rígidos, ele agiliza o processo de transferência de informações. No momento em que este artigo era escrito no InfoWester, era comum encontrar HDs que possuíam buffers de 2 MB e 8 MB.
A parte interna dos HDs (isto é, o interior da "caixinha") é mais interessante. A foto abaixo mostra um HD aberto. Note que há indicativos que descrevem os componentes mais importantes. Estes são detalhados logo abaixo da imagem:















Pratos e motor

esse é o componente que mais chama a atenção. Os pratos são os discos onde os dados são armazenados. Eles são feitos de alumínio (ou de um tipo de cristal) recoberto por um material magnético e por uma camada de material protetor. Quanto mais trabalhado for o material magnético (ou seja, quanto mais denso), maior é a capacidade de armazenamento do disco. Note que os HDs com grande capacidade contam com mais de um prato, um sobre o outro. Eles ficam posicionados sob um motor responsável por fazê-los girar. Para o mercado de PCs, é comum encontrar HDs que giram a 7.200 rpm (rotações por minuto), mas também há modelos que alcançam a taxa de 10 mil rotações, tudo depende da evolução da tecnologia. Até pouco tempo atrás, o padrão do mercado era composto por discos rígidos que giram a 5.400 rpm. Claro que, quanto mais rápido, melhor.


















Cabeça e braço

os HDs contam com um dispositivo muito pequeno chamado cabeça (ou cabeçote) de leitura e gravação. Trata-se de um item de tamanho reduzido que contém uma bobina que utiliza impulsos magnéticos para manipular as moléculas da superfície do disco, e assim gravar dados. Há uma cabeça para cada lado dos discos. Esse item é localizado na ponta de um dispositivo denominado braço, que tem a função de posicionar os cabeçotes sob a superfície dos pratos. Olhando por cima, tem-se a impressão de que a cabeça de leitura e gravação toca nos discos, mas isso não ocorre. Na verdade, a distância entre ambos é extremamente pequena. A "comunicação" ocorre pelos já citados impulsos magnéticos.




















Atuador

Também chamado de voice coil, o atuador é o responsável por mover o braço sob a superfície dos pratos, e assim permitir que as cabeças façam o seu trabalho. Para que a movimentação ocorra, o atuador contém em seu interior uma bobina que é "induzida" por imãs.
Note que o trabalho entre esses componentes precisa ser bem feito. O simples fato da cabeça de leitura e gravação encostar na superfície de um prato é suficiente para causar danos a ambos. Isso pode facilmente ocorrer em caso de quedas, por exemplo.





















Gravação e leitura de dados

A superfície de gravação dos pratos é composta de materiais sensíveis ao magnetismo (geralmente, óxido de ferro). O cabeçote de leitura e gravação manipula as moléculas desse material através de seus pólos. Para isso, a polaridade das cabeças muda numa freqüência muito alta: quando está positiva, atrai o pólo negativo das moléculas e vice-versa. De acordo com essa polaridade é que são gravados os bits (0 e 1). No processo de leitura de dados, o cabeçote simplesmente "lê" o campo magnético gerado pelas moléculas e gera uma corrente elétrica correspondente, cuja variação é analisada pela controladora do HD para determinar os bits.
Para a "ordenação" dos dados no HD, é utilizado um esquema conhecido como "geometria dos discos". Nele, o disco é "dividido" em cilindros, trilhas e setores:










As trilhas são círculos que começam no centro do disco e vão até a sua borda, como se estivesse um dentro do outro. Essas trilhas são numeradas da borda para o centro, isto é, a trilha que fica mais próxima da extremidade do disco é denominada trilha 0, a trilha que vem em seguida é chamada trilha 1, e assim por diante, até chegar à trilha mais próxima do centro. Cada trilha é dividida em trechos regulares chamados de setor. Cada setor possui uma determinada capacidade de armazenamento (geralmente, 512 bytes).


E onde entra os cilindros? Eis uma questão interessante: você já sabe que um HD pode conter vários pratos, sendo que há uma cabeça de leitura e gravação para cada lado dos discos. Imagine que é necessário ler a trilha 42 do lado superior do disco 1. O braço movimentará a cabeça até essa trilha, mas fará com que as demais se posicionem de forma igual. Isso ocorre porque o braço se movimenta de uma só vez, isto é, ele não é capaz de mover uma cabeça para uma trilha e uma segunda cabeça para outra trilha.
Isso significa que, quando a cabeça é direcionada à trilha 42 do lado superior do disco 1, todas as demais cabeças ficam posicionadas sob a mesma trilha, só que em seus respectivos discos. Quando isso ocorre, damos o nome de cilindro. Em outras palavras, cilindro é a posição das cabeças sobre as mesmas trilhas de seus respectivos discos.
Note que é necessário preparar os discos para receber dados. Isso é feito através de um processo conhecido como formatação. Há dois tipos de formatação: formatação física e formatação lógica. O primeiro tipo é justamente a "divisão" dos discos em trilhas e setores. Esse procedimento é feito na fábrica. A formatação lógica, por sua vez, consiste na aplicação de um sistema de arquivos apropriado a cada sistema operacional. Por exemplo, o Windows é capaz de trabalhar com sistemas de arquivos FAT e NTFS. O Linux pode trabalhar com vários sistemas de arquivos, entre eles, ext3 e ReiserFS.











Interface

Os HDs são conectados ao computador através de interfaces capazes de transmitir os dados entre um e outro de maneira segura e eficiente. Há várias tecnologias para isso, sendo as mais comuns os padrões IDE,SATA e, mais recentemente, SSD.
A interface IDE (Intelligent Drive Electronics ou Integrated DriveElectronics) também é conhecida como ATA (Advanced TechnologyAttachment) ou, ainda, PATA (Parallel Advanced TechnologyAttachment). Trata-se de um padrão que chegou para valer ao mercado na época da antiga linha de processadores 386.
Como a popularização desse padrão, as placas-mãe passaram a oferecer dois conectores IDE (IDE 0 ou primário e IDE 1 ou secundário), sendo que cada um é capaz de conectar até dois dispositivos. Essa conexão é feita ao HD (e a outros dispositivos compatíveis com a interface) por meio de um cabo flat (flat cable) de 40 vias (foto abaixo). Posteriormente, chegou ao mercado um cabo flat de 80 vias, cujas vias extras servem para evitar a perda de dados causada por ruídos (interferência).

Cabo flat de 40 vias. Note que ele possui dois conectores


Tecnologias ATAPI e EIDE

Na interface IDE, também é possível conectar outros dispositivos, como unidades de CD/DVD e zipdrives. Para que isso ocorra, é utilizado um padrão conhecido como ATAPI (Advanced Technology Attachment Packet Interface), que funciona como uma espécie de extensão para tornar a interface IDE compatível com os dispositivos mencionados. Vale frisar que o próprio computador, através de seu BIOS e/ou do chipset da placa-mãe, reconhece que tipo de aparelho está conectado em suas entradas IDE e utiliza a tecnologia correspondente (ATAPI para unidades de CD/DVD e outros, ATA para discos rígidos).
Como já dito, cada interface IDE de uma placa-mãe pode trabalhar com até dois dispositivos simultaneamente, totalizando quatro. Isso é possível graças a EIDE (Enhanced IDE), uma tecnologia que surgiu para aumentar a velocidade de transmissão de dados dos discos rígidos e, claro, permitir a conexão de dois dispositivos em cada IDE.

Conectores IDE em uma placa-mãe
É importante frisar que a tecnologia EIDE tem dois concorrentes de peso: os já mencionados padrões SCSI e SATA. O primeiro é bem mais eficiente, porém muito mais caro. Por esta razão, o padrão SCSI só é usado em aplicações que necessitam de alta performance (como servidores, por exemplo). A tecnologia SATA é que veio para tomar o seu lugar, mas como o padrão IDE está no mercado há muito tempo, demorará para cair completamente em desuso.



Tecnologia SATA (Serial Advanced Technology Attachment)

Serial ATA x Paralell ATA

O padrão SATA é uma tecnologia para discos rígidos, unidades ópticas e outros dispositivos de armazenamento de dados que surgiu no mercado no ano 2000 para substituir a tradicional interface PATA (Paralell ATA ou somente ATA ou, ainda, IDE).
O nome de ambas as tecnologias já indica a principal diferença entre elas: o PATA faz transferência de dados de forma paralela, ou seja, transmite vários bits por vez, como se estes estivessem lado a lado. No SATA, a transmissão é em série, tal como se cada bit estivesse um atrás do outro. Por isso, você deve imaginar que o PATA é mais rápido, não? Na verdade, não é. A transmissão paralela de dados (geralmente com 16 bits por vez) causa um problema conhecido como "ruído", que nada mais é do que a perda de dados ocasionada por interferência. Para lidar com isso nos HDs PATA, os fabricantes utilizam mecanismos para diminuir o ruído. Um deles é a recomendação de uso de cabos IDE (o cabo que liga o HD à placa-mãe do computador) com 80 vias (ou seja, oitenta fios) em vez dos tradicionais cabos com 40 vias. As vias a mais atuam como uma espécie de blindagem contra ruídos.
No caso do padrão SATA o ruído praticamente não existe, mesmo porque seu cabo de conexão ao computador possui apenas 4 vias e também é blindado. Isso acaba trazendo outro ponto de vantagem ao SATA, pois como o cabo tem dimensão reduzida, o espaço interno do computador é melhor aproveitado, facilitando inclusive a circulação de ar.
O padrão Paralell ATA tem sua velocidade de transmissão de dados limitada por causa do ruído. A última especificação dessa tecnologia é o ATA 133 que permite, no máximo, uma taxa de transferência de 133 MB por segundo. O Serial ATA, por sua vez, pode utilizar velocidades maiores.
Há outra característica interessante no padrão SATA: HDs que utilizam essa interface não precisam de jumpers para identificar o disco master (primário) ou slave (secundário). Isso ocorre porque cada dispositivo usa um único canal de transmissão (o PATA permite até dois dispositivos por canal), atrelando sua capacidade total a um único HD. No entanto, para não haver incompatibilidade com dispositivos Paralell ATA, é possível instalar esses aparelhos em interfaces seriais através de placas adaptadoras. Além disso, muitos fabricantes lançaram modelos de placas-mãe com ambas as interfaces.
Outra novidade interessante do SATA é a possibilidade de uso da técnica hot-swap, que torna possível a troca de um dispositivo Serial ATA com o computador ligado. Por exemplo, é possível trocar um HD sem ser necessário desligar a máquina para isso. Este recurso é muito útil em servidores que precisam de manutenção/reparos, mas não podem parar de funcionar.
Vale frisar que atualmente é possível encontrar equipamentos do tipo port multiplier que permitem a conexão de mais de um dispositivo em uma única porta SATA, semelhante ao que acontece com os hubs USB.


















Velocidade do padrão SATA

A primeira versão do SATA trabalha com taxa máxima de transferência de dados de 150 MB por segundo (MB/s). Essa versão recebeu os seguintes nomes: SATA 150, SATA 1.0, SATA 1,5 Gbps (1,5 gigabits por segundo) ou, simplesmente, SATA I.
Não demorou muito para surgir uma versão denominada SATA II (ou SATA 3 Gbps - na verdade, SATA 2,4 Gbps -, ou SATA 2.0, ou SATA 300) cuja principal característica é a velocidade de transmissão de dados a 300 MB/s, o dobro do SATA I. Alguns discos rígidos que utilizam essa especificação contam com um jumper que limita a velocidade do dispositivo para 150 MB/s, uma medida aplicada para fazer com que esses HDs funcionem em placas-mãe que suportam apenas o SATA I.
É necessário fazer uma observação quanto ao aspecto de velocidade: na prática, dificilmente os valores mencionados (150 MB e 300 MB) são alcançados. Essas taxas indicam a capacidade máxima de transmissão de dados entre o HD e sua controladora (presente na placa-mãe), mas dificilmente são usadas em sua totalidade, já que isso depende de uma combinação de fatores, como conteúdo da memória, processamento, tecnologias aplicadas no disco rígido, etc.
Há outra ressalva importante a ser feita: a entidade que controla o padrão SATA (formada por um grupo de fabricantes e empresas relacionadas) chama-se, atualmente, SATA-IO (SATA International Organization). O problema é que o nome anterior dessa organização era SATA-II, o que gerava certa confusão com a segunda versão da tecnologia. Aproveitando essa situação, muitos fabricantes inseriram selos da SATA II em seus HDs SATA 1.0 para confundir os usuários, fazendo-os pensar que tais discos eram, na verdade, da segunda geração de HDs SATA. Por isso é necessário olhar com cuidado as especificações técnicas do disco rígido no momento da compra, para não levar "gato por lebre". Felizmente, poucos modelos de HDs se encaixam nessa situação.
Em 2009, foi lançado o conjunto final de especificações da terceira versão da tecnologia Serial ATA, chamada de SATA-III (ou SATA 6 Gbps; ou SATA 3.0). Esse padrão permite, teoricamente, taxas de transferências de até 768 MB por segundo. O SATA-III também utiliza uma versão melhorada da tecnologia NCQ (abordada no próximo tópico), possui melhor gerenciamento de energia e é compatível com conectores de 1,8 polegadas específicos para dispositivos de porte pequeno. O padrão SATA-III se mostra especialmente interessante a unidades SSD, que por utilizarem memória do tipo Flash podem alcançar taxas de transferências elevadas.





















Conectores e cabos
Os conectores e cabos utilizados na tecnologia SATA oferecem duas grandes vantagens ao usuário: ocupam menos espaço dentro do computador; e possuem encaixe mais fácil e mais seguro (é praticamente impossível conectar um cabo SATA de maneira invertida). O mesmo vale para o conector de alimentação elétrica do HD (ou de outro dispositivo compatível). A imagem abaixo mostra um cabo SATA convencional:




A figura a seguir, por sua vez, mostra o conector de alimentação:










A foto a seguir mostra ambos os cabos exibidos acima conectados em um HD:














Por fim, a imagem abaixo mostra conectores SATA existentes em uma placa-mãe:












Tecnologias DMA e UDMA
Antigamente, somente o processador tinha acesso direto aos dados da memória RAM. Com isso, se qualquer outro componente do computador precisasse de algo na memória, teria que fazer esse acesso por intermédio do processador. Com os HDs não era diferente e, como conseqüência, havia um certo "desperdício" dos recursos de processamento. A solução não demorou muito a aparecer. Foi criada uma tecnologia chamada DMA (Direct Memory Access). Como o próprio nome diz, essa tecnologia tornou possível o acesso direto à memória pelo HD ou pelos dispositivos que usam a interface IDE, sem necessidade do "auxílio" do processador.
Quando o DMA não está em uso, normalmente é usado um esquema de transferência de dados conhecido como modo PIO (Programmed I/O), onde, grossamente falando, o processador executa a transferência de dados entre o HD e a memória RAM. Cada modo PIO existente trabalha com uma taxa distinta de transferência de dados, conforme mostra a seguinte tabela:
Modo PIO Taxa de transferência
Modo 0 3,3 MB/s
Modo 1 5,2 MB/s
Modo 2 8,3 MB/s
Modo 3 11,1 MB/s
Modo 4 16,7 MB/s
Modo 20 MB/s













É importante frisar que os HDs IDE mais recentes trabalham com um padrão conhecido como Ultra-DMA (UDMA). Essa tecnologia permite a transferência de dados em uma taxa de, pelo menos, 33,3 MB/s (megabytes por segundo). O padrão UDMA não funciona se somente for suportada pelo HD. É necessário que a placa-mãe também a suporte (através de seu chipset), caso contrário, o HD trabalhará com uma taxa de transferência mais baixa. Veja o porquê: existe 4 tipos básicos de Ultra-DMA: UDMA 33, UDMA 66, UDMA 100 e UDMA 133. Os números nestas siglas representam a quantidade de megabytes transferível por segundo. Assim, o UDMA 33 transmite ao computador dados em até 33 MB/s. O UDMA 66 faz o mesmo em até 66 MB/s, e assim por diante. Agora, para exemplificar, imagine que você instalou um HD UDMA 133 em seu computador. No entanto, a placa-mãe só suporta UDMA de 100 MB/s. Isso não significa que seu HD vai ficar inoperante. O que vai acontecer é que seu computador somente trabalhará com o HD na taxa de transferência de até 100 MB/s e não na taxa de 133 MB/s.

















Capacidade Real De Armazenamento

Os fabricantes de discos rígidos aumentam a capacidade de armazenamento de seus produtos constantemente. Todavia, não é raro uma pessoa comprar um HD e constatar que o dispositivo tem alguns gigabytes a menos do que anunciado. Será que o vendedor lhe enganou? Será que a formatação foi feita de maneira errada? Será que o HD está com algum problema? Na verdade, não.
O que acontece é que os HDs consideram 1 gigabyte com sendo igual a 1000 megabytes, assim como consideram 1 megabyte com sendo igual a 1000 kilobytes, e assim por diante. Os sistemas operacionais, por sua vez, consideram 1 gigabyte como sendo igual a 1024 megabytes, e assim se segue. Por conta dessa diferença, um HD de 80 GB, por exemplo, vai ter, na verdade, 74,53 GB de capacidade ao sistema operacional. Um HD de 200 GB vai ter, por sua vez, 186,26 GB.
Portanto, ao notar essa diferença, não se preocupe, seu disco rígido não está com problemas. Tudo não passa de diferenças entre as empresas envolvidas sobre qual medida utilizar.

O padrão Serial ATA começou a ser desenvolvido oficialmente no ano de 1997 e surgiu a partir de uma iniciativa da Intel junto a 70 empresas, aproximadamente. A ideia foi formada pela previsão de que tecnologias futuras de armazenamento de dados exigiriam taxas de transferência até então não suportadas. A tecnologia SATA surgiu como solução para essa questão sem, no entanto, reverter isso em custo de produção maior, um dos fatores que foram determinantes para a sua ampla aceitação no mercado.






Tecnologia SCSI

Conheça neste artigo os conceitos e a história da tão sofisticada tecnologia SCSI, um padrão cuja essencia serve à aplicações de transferência de dados entre componentes de um computador. O SCSI é uma tecnologia consolidada há alguns anos e é um tipo que de tão eficiente, demorará muito para sair definitivamente do mercado. Vejas nas próximas linhas, o motivo de tanto desempenho e claro, o motivo de seu custo alto. SCSI é sigla para Small Computer System Interface. Trata-se de uma tecnologia criada para acelerar a taxa de transferência de dados entre dispositivos de um computador, desde que tais periféricos sejam compatíveis com a tecnologia. O padrão SCSI é muito utilizado para conexões de HD (disco rígido), scanners, impressoras, CD-ROM ou qualquer outro dispositivo que necessite de alta transferência de dados.
As vantagens do SCSI não se resumem apenas à questão da velocidade, mas também da compatibilidade e estabilidade. Sendo o processador o dispositivo mais rápido do computador, o uso do padrão SCSI permite que essa velocidade seja aproveitada e assim, aumentá-se de forma considerável o desempenho do computador. Isso deixa claro que o SCSI é aplicado principalmente em servidores e em aplicações de missão crítica. Em gráficas, o uso de scanners poderosos poderia ser inviável se o computador não conseguisse processar as imagens rapidamente, devido a baixa taxa de transferência. O padrão SCSI consegue resolver essa questão.
Se seu computador não possui interface SCSI, ainda assim é possível fazer uso desta tecnologia. Basta instalar um adaptador (ou controlador) SCSI. Alguns, permitem de 7 a 15 conexões de dispositivos SCSI.
Adaptador SCSI





Como surgiu o SCSI






O padrão SCSI surgiu da necessidade de se criar algum meio que permitisse uma taxa transferência de dados alta para discos rígidos. Em 1979, a empresa Shugart Associates Systems Interface criou uma tecnologia para discos que permitisse justamente isso. Um ano depois, essa tecnologia recebeu o nome de SCSI-1. Em 1981, essa tecnologia ganhou especificações da ANSI (American National Standards Institute) e passou a ser reconhecida pelo mercado. Com isso, no ano de 1983, começaram a surgir os primeiros discos rígidos que usavam o padrão SCSI. Prevendo o sucesso que essa interface poderia ter, pesquisadores começaram a trabalhar em protocolos de comunicação que tirassem melhor proveito do SCSI.
Mas é no ano de 1986 que o SCSI "pega" de vez. Curiosamente, a Shugart já trabalhava no SCSI-2, que entre outras coisas, permitia o uso de drives de CD-ROM, um verdadeiro avanço naquela época. O SCSI-2 chegou efetivamente ao mercado em 1988 e permaneceu por um bom tempo como o tipo mais consumido, mesmo quando foi lançado o SCSI-3, em 1993. O padrão SCSI-2, além de ter acumulado as especificações do SCSI-1, ainda ganhou um novo recurso, chamado de Fast SCSI. Trata-se de um barramento adicional de 10 MHz (o SCSI-1 usava 5 MHz). Outro recurso, foi a implantação do Wide SCSI, que permitia uso de cabos de 16 ou 32 bits, ao invés dos 8 bits oferecidos pelo SCSI-1. Foi nesse período que scanners e outros periféricos começaram a usar o SCSI.
Em 1995, o SCSI-3 passou a ser reconhecido, mas logo ganhou uma variação, que ficou conhecida como Ultra-SCSI, que funcionava à velocidade de 20 MHz. Um ano depois, o SCSI-3 passou a ter especificações P1394, da IEEE (Institute of Electrical and Electronics Engineers), ficou compatível com protocolos de fibra óptica e ganhou suporte a comandos e algoritmos de drives de CD-R.
No ano de 1997, o SCSI-3 ganhou algumas especificações, sendo a mais importante delas o funcionamento em 40 MHz, passando a se chamar Ultra-2 SCSI. Em 1999, essa velocidade aumenta para 80 MHz e então, surgiu o Ultra-3 SCSI.


























Funcionamento do SCSI
Para funcionar no computador, o SCSI precisa de um dispositivo conhecido como "host adapter". Esse aparelho é quem realiza a conexão com o computador e pode utilizar dois modos de transmissão: normal e diferenciado. O primeiro utiliza apenas um condutor para transmitir o sinal, enquanto o segundo utiliza dois. No modo diferenciado, um condutor transmite o sinal original e o outro transmite o sinal inverso. Isso evita erros causados por interferência.
É possível conectar até 15 periféricos numa única implementação SCSI. Cada um recebe um bit que o identifica (ID SCSI). No entanto, a comunicação somente é possível entre dois dispositivos ao mesmo tempo. Isso porque é necessário que um dispositivo inicie a comunicação (iniciador ou emissor) e outro a receba (destinatário).
Determinados dispositivos só podem assumir uma tarefa ou outra (iniciador ou destinatário). Outros, podem assumir os dois. O dispositivo iniciador recebe esse nome pois é ele quem solicita o estabelecimento da comunicação com um dispositivo (por exemplo, entre o computador e uma impressora). O iniciador pode controlar o barramento, quanto a velocidade e modo de transmissão. Já o destinatário pode pedir certas informações ao iniciador, tais como status, dados ou comandos. Ainda é possível ao destinatário escolher outro iniciador.
É importante ressaltar que no barramento SCSI existem transmissões assíncronas e síncronas. O primeiro permite ao iniciador enviar um comando e aguardar uma resposta em todas as operações. O segundo funciona de maneira semelhante, mas é capaz de enviar vários comandos antes mesmo de receber a resposta do anterior. E estes comandos podem ser iguais. Por isso, o modo síncrono é comumente usado quando a distância entre os dispositivos é grande. Este modo surgiu no SCSI-2.





Adaptadores Wide SCSI e Narrow SCSI
Tipo de SCSI Wide SCSI (em MB/s) Narrow SCSI (em MB/s)
SCSI-1 10 5
SCSI-2 20 10
Ultra-SCSI 40 20
Ultra-2 SCSI 80 40
Ultra-3 SCSI 160 80
É possível encontrar adaptadores Wide SCSI e Narrow SCSI. Ambos permitem uma velocidade maior no barramento (de 5 a 10 MHz). No entanto, o Wide SCSI usa um cabo adicional de 16 ou 32 bits de largura para enviar dados, o que permite o dobro ou quádruplo da velocidade, respectivamente. Já o Narrow SCSI usa somente 8 bits de largura. A tabela abaixo mostra o comparativo entre esses adaptadores:

























Cabos e conectores
Os cabos de dispositivos SCSI são cruciais para uma implementação nessa tecnologia. É recomendável que seu tamanho não ultrapasse 15 cm. Do contrário, a transmissão de dados pode ser severamente prejudicada. Existem vários tipos de cabos para interfaces SCSI, sendo os mais comuns o ALT-1 e o ALT-2.
De igual forma, existem vários tipos de conectores. Em todos eles, no entanto, é necessário a existência de terminadores, que são circuitos que garantem o envio e o recebido dos sinais de dados. Existem, pelo menos, 7 tipos de terminadores, a serem vistos abaixo:

Active: terminador que usa reguladores de tensão para reduzir os efeitos provocados por flutuações elétricas, resultando em maior estabilidade na comunicação SCSI e menor taxa de dados perdidos;

Active-negation: terminador que evita tensões muito altas nos terminadores ativos, permitindo comutação dos dados;

Force Perfect Termination (FPT): utiliza a comutação de um díodo para compensar as diferenças entre as impedâncias dos cabos SCSI e dos dispositivos;

High Voltage Differential (HVD): um dos terminadores mais usados e que possui especicações básicas. Opera a 5 V DC;

Low Voltage Differential (LVD): muito conhecido, esse tipo de terminador passou a ser usado no SCSI-3. Permite menor consumo de energia (se comparado ao HVD) e permite velocidades maiores. Opera em 3.3 V DC;

LVD/SE (LVD Single-Ended): LVD considerado universal, ou seja, multi-compatível. Isso significa que este terminador pode assumir mais de uma voltagem de operação. É um dos tipos mais comuns atualmente;
Passive: trata-se de um terminador com especificações básicas. É mais barato, porém, mais propenso a perda de dados, devendo ser usado em aplicações simples.

O padrão SCSI é uma tecnologia usada em aplicações de alto desempenho. Mas sua sofisticação faz desta tecnologia requerer custos altos. Por esta razão, se você não precisa de velocidade extremas de transferência de dados entre periféricos em seu computador, não há razão para utilizar o SCSI.
O SCSI é um padrão consolidado há alguns anos e até hoje recebe inovações. Já é possível encontrar destes dispositivos que ultrapassam a taxa de 200 MB/s. Para ter tanta confiabilidade e desempenho, o SCSI teve que seguir várias normas. A implementação destas normas é uma das razões de seu alto preço. No entanto, se sua aplicação exige alta velocidade, certamente você chegará à conclusão de que a adoção de dispositivos que usam a interface SCSI não lhe saiu tão caro assim.
HD SCSI
















SSD - Solid State Disks

além da popularização dos pendrives e cartões, a queda no preço da memória Flash possibilitou o surgimento dos primeiros SSDs ou "Solid State Disks" (discos de estado sólido) de grande capacidade. Um SSD é um "HD" que utiliza chips de memória Flash no lugar de discos magnéticos. Eles são projetados para substituírem diretamente o HD, sendo conectados a uma porta SATA ou IDE.

Embora as taxas de transferência (na maioria dos modelos) seja comparável à de um HD modesto, os SSDs oferecem tempos de acesso extremamente baixos, o que melhora o desempenho consideravelmente em uma grande gama de aplicativos e reduz bastante o tempo de boot. Os SSDs oferecem também a vantagem de consumirem muito menos eletricidade, serem mais resistentes mecanicamente (por não possuírem partes móveis), além de serem completamente silenciosos.

Em compensação, eles possuem uma desvantagem fatal, que é a questão do custo. Em maio de 2007, um SSD de 32 GB da Ridata (um dos modelos mais acessíveis) custava US$ 475, isso se comprado em quantidade, diretamente do fabricante. Naturalmente, os preços devem cair com a passagem do tempo, mas isso será um processo gradual, acompanhando a queda no custo por megabyte da memória Flash.

Devido à grande diferença de preço, os SSDs ficarão de início restritos aos notebooks ultraportáteis, onde suas vantagens são melhor aproveitadas. Conforme o custo da memória Flash for caindo, é possível que eles passem a concorrer com os discos magnéticos em outras áreas, mas isso ainda demorará algum tempo.



HDs Externos

É possível encontrar vários tipos de HDs no mercado, desde os conhecidos discos rígidos para uso doméstico (ou seja, para PCs), passando por dispositivos mais sofisticados voltados ao mercado profissional (ou seja, para servidores), chegando aos cada vez mais populares HDs externos.
O que é um HD externo? Simplesmente um HD que você levar para cima e para baixo, e conecta ao computador apenas quando precisa. Para isso, pode-se usar, por exemplo, portas USB, FireWire e até SATA externo, tudo depende do modelo que você escolher.
O HD externo é útil para quando se tem grandes quantidades de dados para transportar ou para fazer backup (cópia de segurança de seus arquivos). Do contrário, é preferível utilizar pendrives, DVDs regraváveis ou outro dispositivo de armazenamento com melhor relação custo-benefício. Isso porque os HDs externos são mais caros e costumam ser pesados (exceto os modelos de tamanho reduzido). Além disso, devem ser transportados com cuidado, para evitar danos.
A imagem ao lado mostra um HD externo da empresa Iomega, uma das mais conhecidas fabricantes desse ramo.











TRILHA ZERO
O QUE É - A trilha zero é o primeiro setor do disco rígido, onde estão armazenados o MBR (Master Boot Record - Setor Mestre de Boot) e a tabela de partição. Quando ligamos o micro, o BIOS executa suas rotinas de teste (POST, Power On Self Test) e inicia o carregamento do sistema operacional, que está no disco. Para iniciar o sistema, seja Windows, Linux, etc., é necssário acessar o primeiro setor do disco rígido, a trilha zero, carregando na memória e executando os comandos contidos no MBR. Se esse setor estiver danificado fisicamente, o sistema operacional não pode ser carregado, desta forma, inutilizando o disco.

ATENÇÃO - as mensagens "setor não encontrado" ou "trilha zero defeituosa" podem não indicar um disco inutilizado, mas que pode ter ocorrido algum erro antes da formatação. Neste caso, verifique os parâmetros do disco rígido no setup do bios, o número de cilindros, cabeças e de setores e se o LBA está habilitado para este disco. Quando esses parâmetros não estão corretos, estes erros ocorrem durante a utilização do FORMAT.

RECUPERANDO - Em geral não é possível recuperar trilha zero defeituosa, pois a criação de FAT fica inviável, além do setor de boot que não irá funcionar. Alguns fabricantes de discos rígidos disponibilizam para download, programas que remagnetizam as trilhas ou fazem um mapeamento de setores defeituosos, atualizando o mapa atual, transferindo o acesso para outros setores, ainda operantes.








Conclusão






O HD tem passado por vários upgrades, desde a época do RAMAC, hoje em dia o conceito de um bom HD é que quanto menor melhor. Cada vez com mais espaço, se compararmos um HD SCSI de 5 anos atrás com um SSD, a diferença de tamanho, tanto físico como lógico, é estrondosa. E cada vez mais visando a qualidade a segurança e a velocidade de seus dados.
Assim o HD vai evoluindo de válvulas, para discos magneticos, e agora para e somente chips. E complicado acreditar que um HD como o Ramac com o porte cem mil vezes maior que um SSD, pode conter trezentas mil vezes menos dados.
















RERÊNCIAS BIBLIOGRÁFICAS


Videos

http://olhardigital.uol.com.br/central_de_videos/video_wide.php?id_conteudo=10771&/OS+SSDS+ESTAO+CHEGANDO...

http://www.youtube.com/watch?v=k32scUh8lWc&feature=related

http://www.youtube.com/watch?v=dC5TvZaBLRg&feature=related

Leitura Para entendimento

http://www.cpddigital.com.br/?p=80
www.infowester.com/hds1.php
www.infowester.com/hds2.php
www.infowester.com/serialata.php
www.guiadohardware.net/termos/ssd
www.baixaki.com.br/tecnologia/tags/ssd

MONITORES

Monitores

Trabalho realizado como parte a obtenção do título de Tecnólogo em Análise e Desenvolvimento de Sistemas, pela FICA – Faculdade Integradas Camões, segundo semestre do curso de Tecnologia em Análise e Desenvolvimento de Sistemas.

1. Introdução a Monitores
Nas décadas de 60 e 70 a maioria dos computadores não utilizavam monitores, mas sim impressoras de margarida (antecessoras das impressoras matriciais), como dispositivos de saída. Estes terminais eram chamados de teletipos, tipicamente vários ligados a um único mainframe.
Os monitores passaram a ser usados em larga escala apenas a partir do final da década de 70.
Atualmente, temos em uso basicamente 4 tecnologias de monitores: CRT, LCD, Plasma e OLED.
1.1. Monitores CRT
Utiliza princípio simples, a mesma tecnologia usada nas TVs de tubo. Um canhão de elétrons bombardeia as células de fósforo que recobrem a tela, fazendo com que elas se iluminem em diferentes intensidades (de acordo com a intensidade da descarga recebida), formando a imagem: O conector VGA transporta os sinais analógicos referentes às três cores primárias (azul, verde e vermelho), além dos sinais de sincronismo horizontal e vertical, é responsável pelo movimento do canhão de elétrons do monitor, que varre toda a tela continuamente, atualizando cada pixel com os sinais referentes às três cores. Variando rapidamente as tensões fornecidas, a placa de vídeo consegue que cada um dos três pontos que compõe cada pixel brilhe numa intensidade diferente, formando a imagem.
As células de fósforo se apagam muito rapidamente, por isso a imagem precisa ser atualizada várias vezes por segundo (refresh). Uma baixa taxa de atualização faz com que o intervalo entre as atualizações seja muito longo, faz com que as células passem a piscar, perdendo luminosidade durante atualização e sendo reacendidas na atualização seguinte (flicker). Isso torrna bastante desconfortável usar o monitor por longos períodos, a longo prazo, causa danos à visão. Não é possível eliminar o flicker completamente, mas é possível reluzi-lo a níveis toleráveis usando taxas de atualização de 75 Hz ou mais. Reduzir o brilho do monitor também ajuda.
A taxa máxima de atualização suportada pelo monitor varia de acordo com a resolução.
Vantagens:
- Emissão de luz na própria tela de fósforos;
- Alto brilho e contraste;
- Boa resolução;
- Excelente ângulo de visão;
- Baixo custo atual dos televisores maiores.
Desvantagem:
- Geometria – ocupam muito espaço;
- Emissão eletromagnética;
- Erros de convergência nos cantos da tela;
- Desgaste dos catodos provocando variações nas cores e baixa vida útil do cinescópio;
- Maior consumo de energia.
1.2. Monitores LCD
Restritos a nichos durante as décadas de 1980 e 1990, estão rapidamente substituindo os monitores CRT.
Tela LCD é uma espécie de chip. A fabricação de um processador e de uma tela LCD são similares, a principal diferença é que o processador é feito sobre um wafer de silício, enquanto que uma tela de LCD é feita sobre uma placa de vidro, utilizando camadas de silício amorfo depositadas sobre ela.
Em uma tela de matiz ativa, temos um transistor para cada ponto da tela (cada pixel é formado por três pontos) e um pequeno sulco, onde é depositado o cristal líquido. Em seu estado normal, o cristal líquido é transparente, mas ao receber uma carga elétrica torna-se opaco, impedindo a passagem da luz. A função de cada transistor é controlar o estado do ponto correspondente, aplicando a tensão correta para cada tonalidade.
Existem duas tecnologias de iluminação de telas LCD. A mais comum consiste no uso de lâmpadas de catodo frio, um tipo de lâmpada florescente, ultra compacta, e de baixo consumo.
Vantagens:
- Baixo consumo de energia;
- Melhor eficiência comparando-se com os antigos monitores de tubos (CRT);
- Menor desgaste da tela (Display);
- Custo de manutenção menor do que os de plasma e CRT;
- Melhor geometria, Tela fina e leve.
Desvantagens:
- Baixa resolução;
- Ângulo de visão reduzido;
- Iluminação mínima constante das partes pretas, reduzindo o contraste;
- Falta de uniformidade da luz traseira provocando deformação da imagem.
1.3. Monitores Plasma
Trabalham sob um princípio bem diferente. Pequenas quantidades de gás neon e xenon são depositadas em pequenas câmaras seladas, entre duas placas de vidro. Cada câmara contém dois eletrodos (um deles protegido por uma camada isolante) e também uma camada de fósforo (similar ao usado no CRT). Quando certa tensão é aplicada, o gás é ionizado e se transforma em plasma, passando a emitir luz ultravioleta que, por sua vez, ativa a camada de fósforo, fazendo com que ela passe a emitir luz. Cada pixel é composto por três câmaras individuais, cada uma utilizando uma camada de fósforo de uma das três cores primárias.
Oferecem uma luminosidade muito boa e um bom nível de contraste. O problema é que as células contendo gás são relativamente grandes, por isso não é possível produzir monitores com uma densidade muito alta. Este é o principal motivo das telas de plasma serem muito grandes (geralmente de 40 polegadas ou mais) e possuírem uma resolução relativamente baixa, se considerado o tamanho. Outra desvantagem é o consumo elétrico, que supera até mesmo o dos CRT, sem falar na questão do custo.
Vantagens:
- Emissão de luz pelas células da tela, proporcionando melhor brilho, contraste e resolução;
- Cenas escuras, com corte de luz;
- Melhor ângulo de visão;
- Melhor uniformidade da luz em todas as partes da tela.
Desvantagens:
- Maior índice de desgaste e defeito, devido às fontes para excitar as células;
- Maior emissão eletromagnética – luz ultravioleta;
- Aparelho com maior profundidade e mais pesado;
- Dificuldade de montagem de telas menores do que 40”.
1.4. Monitores OLED (Organic Light-Emitting Diode)
São baseadas no uso de polímeros contendo substâncias orgânicas que brilham ao receber um impulso elétrico. Cada ponto da tela é composto com uma pequena quantidade do material, que depois de receber os filamentos e outros componentes necessários, se comporta como um pequeno LED, emitindo luz.
A principal diferença entre os OLED e os LED convencionais é que os OLED são compostos líquidos, que podem ser "impressos" sobre diversos tipos de superfície, usando técnicas relativamente simples, enquanto os LED convencionais são dispositivos eletrônicos, que precisam ser construídos e encapsulados individualmente.
O princípio de funcionamento das telas OLED é exatamente o oposto das de LCD, já que enquanto no OLED os pontos da tela emitem luz ao receberem uma carga elétrica. A principal vantagem do OLED é que as telas tendem a ser mais compactas e econômicas, já que não precisam de iluminação adicional. A desvantagem é que esta ainda é uma tecnologia nova, que ainda tem um bom caminho a percorrer.
A principal dificuldade é encontrar compostos que sejam duráveis e possam ser produzidos a custos competitivos.
Na maioria dos casos, a tela OLED é instalada no meio de duas placas de vidro, lembrando o design de uma tela de LCD. Apesar disso, não é usado o tradicional backlight: toda a luz é emitida diretamente pela tela, o que simplifica o design. As vantagens são o menor consumo elétrico (o que ajuda na autonomia das baterias) e o melhor ângulo de visão (a tela pode realmente ser vista de qualquer ângulo, sem distorção das cores).
O "Santo Graal" para os fabricantes de monitores seria o desenvolvimento de telas flexíveis, onde os pixels, formados por OLED, juntamente com os transistores e filamentos necessários possam ser "impressos" diretamente sobre uma superfície plástica, utilizando impressoras de jato de tinta modificadas. Isso permitiria o desenvolvimento de telas baratas, que poderiam ser enroladas e usadas em todo tipo de dispositivos.
Vantagens:
- Emissão e corte de luz pelas próprias células da tela. Não necessita de backlight adicional;
- Melhor brilho e contraste;
- Melhor ângulo de visão;
- Tela fina e flexível;
- Maior resolução;
- Baixíssimo consumo.
Desvantagens
- Custo ainda muito alto;
- As telas ainda são reduzidas, não chegando a 40”;
- A durabilidade da tela ainda é baixa e depende da evolução dos processos de fabricação.
2. Referências

http://www.gdhpress.com.br/hardware

http://webinsider.uol.com.br/2007/01/22/monitores-crt-plasma-e-lcd-os-detalhes-tecnicos/

http://www.via6.com/topico.php?tid=122783

http://compreviews.about.com/od/multimedia

http://www.pcreview.co.uk/articles/Consumer-Advice/LCD_vs_CRT/

http://www.tvglobodigital.com/blog/

IBM X MACINTOCH

IBM X MACINTOCH



ALUNOS: ROSIMEIRE DA CRUZ DOS SANTOS
LUIS FERNANDO VITACA
FABIO STAKOWIAN
GUILHERME ANTHONY SILVEIRA
2º PERÍODO NOITE DE ANALISE E DESENVOLVIMENTO DE SISTEMAS
PROFESSOR: CLAUDIO


IBM
Definições de IBM: International Business Machines (IBM) é uma empresa estadunidense voltada para a área de informática.

IBM PC (modelo 5150)


Tipo:
Computador pessoal

Lançamento: 8 de dezembro de 1981 (28 anos)

Descontinuado: 2 de abril de 1987 (23 anos)

Sistema operativo:
IBM Cassette BASIC / PC-DOS 1.0

Microprocessador:
Intel 8088 em 4,77 MHz

Memória: 16 KiB ~ 640 KiB

A empresa é uma das poucas da área de Tecnologia da Informação com uma história contínua que remonta ao século XIX . A IBM fabrica e vende Hardware e Software, oferece serviços de infra-estrutura, serviços de hospedagem e serviços de consultoria nas áreas que vão desde computadores de grande porte até a nanotecnologia. Foi apelidada de "Big Blue" por ter azul como sua cor corporativa oficial. Com mais de 398.455 colaboradores em todo o mundo, a IBM é a maior e mais rentável empresa da área de TI no mundo. A IBM detém mais patentes do que qualquer outra empresa americana baseada em tecnologia e tem 15 laboratórios de pesquisa no mundo inteiro. A empresa tem cientistas, engenheiros, consultores e profissionais de vendas em mais de 150 países. Funcionários da IBM já ganharam cinco prêmios Nobel, quatro Prêmios de Turing (conhecido como o Nobel da computação), dentre vários outros prêmios
No final do século XIX, nos Estados Unidos, o estatístico Herman Hollerith idealizou uma solução eficiente para o censo de 1890. Hollerith concebeu diversas máquinas elétricas para a soma e contagem de dados que eram representados sob a forma de fitas de papel perfuradas. Através dessas perfurações, os dados que elas representavam podiam ser computados de uma forma rápida e automatica, através de circuitos elétricos. Com esse processo, os Estados Unidos puderam acompanhar de perto o crescimento de sua população. Os resultados do censo de 1890 foram fornecidos três anos depois, economizando-se vários anos de trabalho. Em 1896, Hollerith criou a Tabulating Machine Company e introduziu inovações em sua descoberta: a fita de papel foi substituída por cartões. Estes viriam a ser o elemento básico das máquinas IBM de processamento de dados de algumas décadas atrás. Já em 1911, duas outras companhias, a International Time Recording Co. (de registradores mecânicos de tempo), e a Computing Scale Co. (de instrumentos de aferição de peso), uniram-se a ela, por sugestão do negociante e banqueiro Charles R. Flint, formando-se então a Computing Tabulating Recording Co. - a CTR.
Três anos mais tarde, em 1914, Thomas J. Watson (líder industrial que foi um dos homens mais ricos do seu tempo) assumiu a presidência da organização e estabeleceu normas de trabalho absolutamente inovadoras para para a época. Naquele tempo, a CTR contava com menos de 1400 funcionários e as constantes pesquisas de engenharia resultaram na criação e no aperfeiçoamento de novas máquinas de contabilidade, exigidas pelo rápido desenvolvimento industrial. Antes do ano de 1924, aquele pequeno grupo de homens havia aumentado e diversificado muito sua experiência. Os produtos ganharam maior qualidade, surgiram novas máquinas e com elas novos escritórios de vendas e mais vendedores.
Em fevereiro de 1924 a CTR mudou seu nome para aquele que ocuparia um lugar de liderança dentro do processo tecnológico: INTERNATIONAL BUSINESS MACHINES - a IBM, a sigla IBM passou a ser, desde então, a fórmula para que a indústria e o comércio continuassem a resolver seus problemas de desenvolvimento. Em conseqüência do constante e rápido desenvolvimento, a International Business Machines Corporation criou em 1949 a IBM World Trade Corporation, uma subsidiária inteiramente independente, cujo objetivo era aumentar vendas, serviços e produção fora dos Estados Unidos.
As atividades da IBM World Trade Corporation se estendem hoje por mais de 150 países. As fábricas e laboratórios da IBM funcionam em 15 diferentes países. Essas fábricas estão integradas aos laboratórios de desenvolvimento na França, Alemanha, Espanha, Itália, Holanda, Suécia, Inglaterra, Brasil, Argentina, Colômbia, México, Canadá, Austrália e Japão. A IBM é uma empresa que investe em pesquisa e desenvolvimento mantendo-se na liderança do ranking de publicação de patentes há 16 anos consecutivos - a IBM ganhou 4.914 patentes norte-americanas em 2009, estabelecendo um recorde histórico para a Big Blue, mantendo sua liderança contra competidores como a Samsung (3.611 patentes) e a Microsoft (2.906 patentes). A tecnologia IBM está presente nos principais supercomputadores do mundo e também em milhões de casas em alguns dos mais potentes e modernos vídeo games da atualidade, equipados com chips da IBM.
Ao longo dos últimos cinco anos, a IBM transformou completamente seu modelo de negócio. O tipo de trabalho que a empresa pode realizar hoje é muito diferente do trabalho de cinco anos atrás. A IBM se desfez de várias atividades que já tinham se transformado em commodities, como os segmentos de PCs e Impressoras, e ampliou os investimentos em áreas-chave de alto valor, como consultoria, Informação on Demand e Serviços. Em 2005, sua divisão de PCs foi adquirida pela chinesa Lenovo.



IBM Brasil


Edifício da empresa em São Paulo, a sede no Brasil.

A IBM Brasil - Indústria, Máquinas e Serviços Ltda é uma das subsidiárias da IBM World Trade Corporation, em 1917, a IBM surgiu no Brasil, ainda funcionando com o nome de Computing Tabulating Recording Company. O Brasil foi o primeiro país do mundo a receber uma filial da IBM. Nesse mesmo ano, foi firmado o primeiro contrato para a prestação de serviços com a Diretoria de Estatística Comercial. Com os excelentes resultados obtidos, o Governo Brasileiro resolveu contratar a CTR para o censo demográfico de 1920. Nesse mesmo ano chegaram ao Brasil as primeiras máquinas impressoras.
O ano de 1924 marcou o estabelecimento definitivo da IBM Brasil. Nos seus 91 anos de presença no Brasil, a companhia acompanhou e muitas vezes orientou, as mudanças e avanços da indústria. Hoje, a IBM possui soluções de ponta a ponta, adequadas a empresas de todos os portes e perfis de negócios. Presente em mais de 170 países, a IBM opera no modelo de empresa globalmente integrada e emprega 386 mil pessoas em todo o mundo. Em 2008, a empresa atingiu um faturamento global de US$ 103,6 bilhões. Nos últimos três anos, a IBM Brasil mais do que dobrou de tamanho, tanto em número de funcionários, quanto em faturamento. Durante este período, 8 mil pessoas foram contratadas e, hoje a IBM Brasil conta com 17.400 colaboradores, sendo metade desta força de trabalho dedicada ao segmento de serviços.
Hoje, o Brasil possui o segundo maior centro de prestação mundial de serviços da IBM. Para poder atender clientes de qualquer lugar do mundo, a IBM Brasil faz parte do que a empresa define como "Global Delivery Model", modelo integrado de prestação de serviços que garante custos competitivos, excelência e padronização de processos.

O conceito IBM PC
O PC original foi uma tentativa da IBM de entrar no mercado de computadores domésticos, então dominado pelo Apple II e por uma legião de máquinas CP/M. Em vez de passar pelo processo de planejamento usual da IBM, o qual tinha falhado em criar um microcomputador de baixo custo (tendo por exemplo o malogrado IBM 5100), um grupo especial de trabalho foi formado com a autorização de ignorar as restrições normais da companhia e trazer algo para o mercado rapidamente. A este projeto foi dado o nome-código de Projeto Xadrez.
O grupo consistia de apenas 12 pessoas, encabeçado por Don Estridge. Eles foram bem-sucedidos, o desenvolvimento do PC levou cerca de um ano. Para conseguir isto, eles decidiram preliminarmente construir a máquina com peças facilmente encontráveis no mercado, de uma grande variedade de fornecedores OEM e de diversos países; anteriormente, a IBM tentara utilizar apenas componentes desenvolvidos por ela mesma. Em segundo lugar, eles resolveram utilizar uma arquitetura aberta para que outros fabricantes pudessem produzir e vender máquinas compatíveis; para tal, as especificações do BIOS foram publicadas. Com isso, a IBM esperava manter sua posição no mercado cobrando "royalties" pelo licenciamento do BIOS e se mantendo à frente da concorrência.
Na época, Don Estridge e equipe cogitaram em usar o processador 801 e respectivo sistema operacional, que haviam sido desenvolvidos no laboratório de pesquisa da IBM em Yorktown Heights, Nova York (o 801 foi um precursor dos microprocessadores RISC, projetado por John Cocke e seu grupo). O 801 era pelo menos uma ordem de magnitude mais potente do que o Intel 8088, e seu sistema operacional estava muitos anos à frente do MS-DOS da Microsoft, que acabou sendo o escolhido. Excluir uma solução doméstica tornou o trabalho do grupo muito mais fácil e pode ter evitado atrasos no cronograma, mas as conseqüências finais desta decisão para a IBM foram desastrosas. Para azar da IBM, outros fabricantes rapidamente desenvolveram suas próprias versões do BIOS através de engenharia reversa e com isso não precisavam pagar mais "royalties" à companhia. Em Junho de 1982, a Columbia Data Products lançou o primeiro IBM PC compatível, o MPC (Multi Personal Computer), cuja configuração básica, por US$ 1500 a menos, ostentava itens que eram opcionais no IBM PC padrão (o MPC básico oferecia 128 KiB de RAM, duas portas seriais e uma paralela). Em Novembro de 1982, a Compaq anunciou seu primeiro "clone" do IBM PC (embora ele só tenha sido comercializado a partir de Março de 1983), que foi também o primeiro IBM PC compatível portátil.
Quando o IBM PC tornou-se um sucesso comercial, sua produção voltou ao usual controle gerencial da IBM, o que significou que os competidores tiveram pouco trabalho em assumir a liderança do mercado. Neste aspecto, a tradição da IBM em "racionalizar" suas linhas de produtos – restringindo deliberadamente a performance dos modelos mais baratos para evitar que eles "canibalizassem" os lucros dos modelos de maior valor – trabalhou contra ela. Ainda em meados de 2006, modelos IBM PC e XT estavam em actividade na maioria dos postos de observação da alta atmosfera do Serviço Meteorológico dos Estados Unidos. Os computadores são utilizados para processamento dos dados enviados pelas radiossondas, transportadas nos balões meteorológicos. Eles estão sendo gradualmente desativados ao longo de um período de vários anos, como parte de um programa de substituição das radiossondas.



Sucesso comercial
O primeiro IBM PC foi lançado em 12 de Agosto de 1981. Embora não fosse barato, com um preço-base de US$ 1.565, era confiável para uso comercial – e foi o segmento comercial quem investiu na compra do PC. Todavia, não foi o "centro de processamento de dados" corporativo o responsável por isto, para o qual o PC não era visto como um computador "apropriado"; foram geralmente os gerentes bem-educados de nível intermediário que viram o potencial da máquina, visto que a revolucionária planilha eletrônica Visicalc, um "aplicativo matador", havia sido portada para o PC como um clone, o Lotus 1-2-3. Confiantes no nome IBM, eles começaram a comprar as máquinas às próprias custas, para auxiliá-los nos cálculos que haviam aprendido nos cursos de negócios.
A primeira geração do IBM PC
O PC original possuía uma versão do Microsoft BASIC (o IBM Cassette BASIC) em ROM, a placa de vídeo CGA podia usar uma televisão comum como monitor e o dispositivo padrão de armazenamento era um gravador de cassetes. Um drive era um extra opcional; não tinha disco rígido disponível e haviam apenas cinco "slots" de expansão. A memória RAM máxima, utilizando-se apenas partes fornecidas pela IBM, era de 256 Kb (64 Kb na placa-mãe e três placas de expansão de 64 Kb. O processador era um Intel 8088 (processadores AMD começaram a ser usados depois de 1983), rodando a 4,77 MHz. Ele foi vendido pela IBM em configurações com 16 Kb e 64 Kb de RAM pré-instalada. A máquina foi um grande fracasso no mercado doméstico, mas seu uso comercial disseminou-se rapidamente.
IBM PC-XT
O modelo seguinte, o IBM PC XT foi uma máquina avançada, projetada para uso comercial. Ele tinha 8 slots de expansão (ISA, 8 bits), um HD de 10 Megabytes e suportava 256 Kb de memória diretamente na placa-mãe (modelos posteriores podiam ser expandidos até 640 Kb, que combinados com a ROM, perfaziam o Megabyte de memória que o 8088 podia endereçar). Ele era usualmente vendido com uma placa de vídeo MDA. O processador contudo, ainda era o Intel 8088 original rodando a 4,77 MHz.
IBM PC/AT (286')
Em Agosto de 1984, foi lançado o IBM PC/AT, que utilizava um processador Intel 80286, rodando originalmente a 6 MHz. Ele tinha um barramento ISA de 16 bits e um HD de 20 Mb. Um modelo mais rápido, de 8 MHz, foi introduzido em 1986. A IBM fez algumas tentativas de apresentá-la como uma máquina multiusuário, mas foi vendida principalmente como um PC mais rápido para quem precisasse de grande capacidade de processamento. Os primeiros PC/AT foram afligidos por problemas de confiabilidade, em parte por causa de algumas incompatibilidades entre software e hardware, mas principalmente relacionadas com o disco rígido interno de 20 Mb. Enquanto alguns culpavam a placa controladora da IBM e outros culpavam o fabricante do disco rígido (Computer Memories International ou CMI), a controladora IBM funcionava muito bem com outros HDs, inclusive o modelo de 33 Mb da própria CMI. Os problemas trouxeram dúvidas sobre o computador e, por algum tempo, até mesmo sobre a arquitetura 286 em geral, mas depois que a IBM substituiu os HDs de 20 Mb da CMI, o PC/AT mostrou-se confiável e tornou-se um padrão industrial duradouro. A CMI fechou as portas pouco tempo depois.
Outros modelos
• IBM Convertible
• IBM Portable
• IBM PCjr
Observações
Os modelos de segunda geração, os PS/2 (IBM Personal System/2), são designados por números: PS/2 Modelo 25, PS/2 Modelo 30 etc. Dentro de cada série, a referência aos modelos também é feita usualmente pela freqüência de operação da UCP. Todos os computadores pessoais da IBM são compatíveis em termos de software com qualquer outro modelo de PC, mas nem todos os programas irão funcionar em todas as máquinas. Alguns programas antigos dependem de um "clock" específico para funcionar ou podem não ser capazes de aproveitar a alta resolução existente nas placas de vídeo mais novas.
Eletrônica
A principal placa de circuito impresso de um IBM PC é chamada de placa-mãe. Ela comporta a UCP e as memórias, e possui um barramento com "slots" para placas de expansão.
O barramento utilizado no PC original tornou-se muito popular e foi subseqüentemente batizado como Industry Standard Architecture. Ele ainda continua sendo utilizado, em computadores para uso industrial. Posteriormente, a necessidade de maior velocidade e maior capacidade forçaram o desenvolvimento de novas versões. A IBM introduziu o barramento MCA com a linha PS/2. O barramento VESA permitia o uso de até três placas de 32 bits, muito mais rápidas, e a arquitetura EISA foi desenvolvida como um padrão de compatibilidade retroativa que incluía os slots para placas de 32 bits, mas que só obteve algum sucesso com servidores de alto desempenho. O barramento PCI, mais geral e de custo mais baixo, foi introduzido em 1994 e de lá para cá, tornou-se onipresente.
A placa-mãe é conectada por cabos flexíveis a dispositivos internos de armazenamento tais como HDs e leitores de CD-ROM. Tais dispositivos tendem a ser produzidos em tamanhos-padrão, tais como as larguras de 3 1/2" (90 mm) e 5 1/4" (133,4 mm), com furos de fixação padronizados. O gabinete também contém uma fonte padrão de energia, que é do tipo AT ou ATX.
Os PCs baseados no Intel 8086 e 8088 precisavam de placas de memória expandida (EMS) para poderem acessar mais de um megabyte de memória. O IBM PC/AT usava um processador Intel 80286 que podia acessar até 16 Mb de memória (embora aplicativos DOS-padrão não pudessem utilizar mais de um megabyte sem o emprego de recursos especiais). Computadores 286 rodando OS/2, podiam trabalhar com esta memória máxima sem problemas.
Teclado
O teclado original do IBM PC de 1981 recebeu críticas severas dos digitadores por ter colocado a tecla de ENTER e a tecla SHIFT esquerda fora dos locais costumeiros. Em 1984, a IBM corrigiu isto no teclado do AT, mas encurtou a tecla BACKSPACE, tornando-a mais difícil de alcançar. Em 1987, ela introduziu o "teclado avançado", o qual relocou todas as teclas de função e as teclas Ctrl. A tecla Esc foi também relocada para o lado oposto do teclado.
Um "IBM PC compatível" pode ter um teclado que não reconheça todas as combinações possíveis num verdadeiro IBM PC (por exemplo, teclas de cursor com SHIFT). Em acréscimo, fornecedores de "compatíveis" algumas vezes usavam interfaces de teclado proprietárias, impedindo que o usuário substituísse a peça pela de outro fabricante.
Conjunto de caracteres
O IBM PC original utilizava o alfabeto ASCII de sete bits como base, mas o estendia para 8 bits com códigos de caracteres não-padrões. Este conjunto de caracteres não era adequado para algumas aplicações internacionais, e logo uma verdadeira indústria caseira surgiu, provendo versões do conjunto original de caracteres em diversas variantes nacionais. Na tradição da IBM, estas variantes foram chamadas de páginas de código. Estes códigos são agora obsoletos, tendo sido substituídos por formas mais sistemáticas e padronizadas de codificação de caracteres, tais como o ISO 8859-1, Windows-1251 e Unicode.
O conjunto original de caracteres do IBM PC era o seguinte:
-0 -1 -2 -3 -4 -5 -6 -7 -8 -9 -A -B -C -D -E -F
0- ? ? ? ? ? ? • ? ? ? ? ? ? ? ¤ 0-
1- ? ? ? ? ¶ § ? ? ? ? ? ? ? ? ? ? 1-
2- ! " # $ % & ' ( ) * + , - . / 2-
3- 0 1 2 3 4 5 6 7 8 9 : ; < = > ? 3-
4- @ A B C D E F G H I J K L M N O 4-
5- P Q R S T U V W X Y Z [ \ ] ^ _ 5-
6- ` a b c d e f g h i j k l m n o 6-
7- p q r s t u v w x y z { } ~ ¦ 7-
8- Ç ü é â ä à å ç ê ë è ï î ì Ä Å 8-
9- É æ Æ ô ö ò û ù ÿ Ö Ü ¢ £ ¥ P ƒ 9-
A- á í ó ú ñ Ñ ª º ¿ ¬ ¬ ½ ¼ ¡ « » A-
B- ¦ ¦ ¦ ¦ ¦ ¦ ¦ + + ¦ ¦ + + + + + B-
C- + - - + - + ¦ ¦ + + - - ¦ - + - C-
D- - - - + + + + + + + + ¦ _ ¦ ¦ ¯ D-
E- a ß G p S s µ t F T O d 8 f e n E-
F- = ± = = ( ) ÷ ˜ ° • • v n ² ¦ F-
-0 -1 -2 -3 -4 -5 -6 -7 -8 -9 -A -B -C -D -E -F
Mídia de armazenamento
Oficialmente, o meio padrão de armazenamento do modelo IBM PC original era um gravador de cassetes. Tecnologicamente obsoleto, mesmo pelos padrões de 1981, foi raramente usado e poucos (se algum) IBM PC saíram da fábrica sem um acionador de disquetes instalado. O PC de 1981 tinha um ou dois "drives" de disquetes de 5" 1/4 com 180 Kb, face simples e dupla densidade; os XT geralmente tinham um drive com 360 Kb de face dupla, ao lado do disco rígido.
O primeiro IBM PC que incluiu um disco rígido fixo, não removível, foi o XT. Discos rígidos para compatíveis IBM logo tornaram-se disponíveis com capacidades de armazenamento cada vez mais altas. Se um disco rígido era acrescentado e não era compatível com a placa controladora existente, uma nova placa controladora tinha de ser adicionada; alguns HDs já vinham integrados à sua própria controladora, numa única placa de expansão.
Em 1984, a IBM introduziu o disquete de 5" 1/4 com 1,2 Mb, dupla face, no seu modelo AT. Embora tenha sido usado com freqüência como mídia de "backup", o disquete de alta densidade não foi usado tão freqüentemente como mídia para troca de dados. Em 1986, a IBM apresentou o disquete de 3 1/2" com 720 Kb, dupla densidade, no seu laptop Convertible. A versão de 1,44 Mb (alta densidade), ainda em uso nos dias de hoje, foi introduzida com a linha PS/2. Estes "drives" de 3" 1/2 teoricamente podiam funcionar em máquinas antigas, embora isso dependesse de algumas condições: o acréscimo de uma placa controladora que reconhecesse os novos formatos (não existentes no BIOS), adaptadores metálicos que permitissem instalar o drive de 3" 1/2 numa baia de 5" 1/4 e conversores para os cabos de força, visto que os drives antigos também tinham plugues maiores e diferentes daqueles utilizados nos novos modelos.
Em 1988, a IBM apresentou um drive de 3" 1/2 com 2,88 Mb ("DSED"), para uso em seus modelos topo-de-linha. O dispositivo revelou-se um grande fracasso de vendas e foi quase que totalmente esquecido; todavia, ainda persiste como um dos "tamanhos" possíveis no BIOS e nos utilitários de formatação de disco.
Software
Todos os IBM PC incluíam um pequeno programa armazenado em ROM. O IBM PC original possuía 40 Kb de ROM, dos quais 8 Kb eram para o power-on self-test (auto-teste de inicialização) e o BIOS, e 32 Kb para o IBM Cassette BASIC. O interpretador BASIC em ROM era a interface-padrão do usuário se nenhum disco de boot do DOS fosse encontrado na inicialização. O Microsoft BASICA era distribuído em disquetes e fornecia um modo de rodar o BASIC em ROM sob controle do PC-DOS.
[editar] Modelos IBM PC e PS/2
A série IBM PC:
Modelo Lançamento CPU Características
IBM PC Ago 1981 8088 Sistema baseado em disquetes
PC XT Mar 1983 8088 Disco rígido lento
XT/370 Out 1983 8088 Emulação do mainframe IBM System/370

IBM 3270 PC Out 1983 8088 Emulação do terminal IBM 3270

PCjr Nov 1983 8088 Computador doméstico baseado em disquetes
IBM PC Portable Fev 1984 8088 Portátil baseado em disquetes
IBM PC/AT Ago 1984 80286 Disco rígido de média velocidade
IBM Convertible Abr 1986 8088 Portátil com disquetes de 3 1/2"
XT 286 Set 1986 80286 Máquina de 6 MHz que era, na verdade, mais rápida do que os ATs de 8 MHz (quando usava memória planar) por causa dos zero wait states da placa-mãe











A série IBM PS/2:
Modelo Lançamento CPU Características
25 Ago 1987 8086 Barramento PC (expansão limitada)

30 Abr 1987 8086 Barramento PC
30 Ago 1987 80286 Barramento PC
50 Abr 1987 80286 Barramento MCA
50Z Jun 1988 80286 Modelo 50 mais rápido
55 SX Mai 1989 80386SX Barramento MCA
60 Abr 1987 80286 Barramento MCA
70 Jun 1988 80386 "Desktop", barramento MCA
P70 Mai 1989 80386 Portátil, barramento MCA
80 Abr 1987 80386 Torre, barramento MCA














Especificações dos IBM PC compatíveis:
UCP Freqüência
do clock
(MHz) Barramento
UCP
(bits)
Barramento
do sistema
(bits) RAM
(megabytes)
Acionador de disquetes
Disco rígido
(megabytes)
Sistema
operacional

8088 4,77–9,5 16 8 1 (1) 5 1/4", 360 Kb
3 1/2", 720 Kb
3 1/2", 1,44 Mb 10–40 PC-DOS

8086 6–12 16 20–60
80286 6–25 1–8 (1) 5 1/4", 360 Kb
5 1/4", 1,2 Mb 20–300 PC-DOS, OS/2

80386 16–33 32 32 1–16 (2) 3 1/2", 720 Kb
3 1/2", 1,44 MB 40–600 UNIX

80386SX 16
1. Sob o DOS, a RAM é expandida além de 1 MB com placas de memória expandida (EMS).
2. Sob o DOS, a RAM é expandida além de 1 MB com memória estendida normal e um programa de gerenciamento de memória.




Macintosh
Macintosh, ou Mac, é o nome dos computadores pessoais fabricados e comercializados pela Apple Inc. desde janeiro de 1984. O nome deriva de McIntosh, um tipo de maçã apreciado por Jef Raskin. O Apple Macintosh foi o primeiro computador pessoal a popularizar a interface gráfica (GUI), na época um desenvolvimento revolucionário. Ele é muito utilizado para o tratamento de vídeo, imagem e som.


Apple Macintosh 512 KB.


Apple Macintosh em 1998.
Os primeiros modelos foram construídos em torno dos microprocessadores da família 68000 da Motorola. Com o surgimento de arquiteturas mais poderosas, a partir de 1994 foi empregada a família de processadores PowerPC da IBM e Motorola. Em 2006, uma nova transição ocorreu, com a adoção de processadores Intel, da família Core. Em setembro de 2006, três diferentes processadores são utilizados nos diferentes modelos de Macintosh à venda:
• Core Solo: processador menos poderoso, usado em modelos mais simples de Mac Mini
• Core 2 Duo: processador voltado para uso em notebooks de alta performance, usado em Mac Mini, MacBook, MacBook Pro e iMac
• Xeon 5100: processador voltado para uso em servidores, usado na workstation Mac Pro e nos servidores Xserve.
Os Macintosh funcionam normalmente com o sistema operacional Mac OS, mas outros sistemas também são disponíveis, como o Linux ou FreeBSD. Um cluster de PowerMacs G5 apelidado de Big Mac era um dos computadores mais rápidos em 2003.
As bases do projeto Macintosh surgiram no início de 1954 com Jef Van Dam, que imaginou um computador fácil de utilizar e barato para grandes empresas. Suas idéias foram repertoriadas em O Livro do Macintosh. Em fevereiro de 1967, Jef Van Dam foi autorizado a lançar o projeto e começou a procurar um engenheiro capaz de construir o primeiro protótipo. Bill Atlhon, um membro do projeto Lisa, apresentou-o a Bob Smith, um técnico que acabara de ser contratado pela Apple naquele ano. Segundo certas fontes, Bill Atkinson teria dito a Jef Raskin: Jef, this is Burrell. He's the guy who's going to design your Macintosh for you (Jef, este é o Burrell. Ele é o cara que vai projetar o Macintosh para você). [1]
O primeiro protótipo
O primeiro protótipo produzido por Burrell Smith obedecia às especificações de Jef Raskin: tinha 64 KB de memória, utilizava o lento microprocessador 6805E da Motorola e tinha um monitor de 256x256 pixeis em preto e branco. Bud Tribble, um programador trabalhando no projeto Macintosh, propôs que se adaptassem os programas gráficos do Lisa e perguntou se seria possível integrar o processador Motorola 68000 do Lisa ao Macintosh, mas mantendo o baixo custo de produção. A partir de dezembro de 1980, Burrell Smith desenvolveu uma placa que continha não somente um processador 68000, mas que, além disso, fazia-o rodar a uma frequência de 8 MHz em vez de 5 MHz. Este tinha também um monitor com 384x256 pixeis. Esta máquina utilizava menos controladores de memória que o Lisa, tornando sua fabricação bem mais barata.
Steve Jobs e o PARC
O projeto inovador do Macintosh atraiu a atenção de Steve Jobs, que saiu do projeto Lisa com sua equipe para se concentrar no projeto Macintosh. Em janeiro de 1981, ele tomou a direção do projeto, forçando Jef Raskin a deixá-lo. Steve Jobs tinha visitado os laboratórios de desenvolvimento da Xerox em Palo Alto, Califórnia (Palo Alto Research Center, o PARC), em dezembro de 1979, três meses antes do lançamento dos projetos Lisa e Macintosh. Tendo descoberto que a Xerox desenvolvia uma tecnologia de interface gráfica, ele havia negociado essa visita em troca de ações da Apple. É evidente que essa visita influenciou muito Steve Jobs no desenvolvimento do Lisa e do Macintosh.
Lançamento
O Macintosh foi lançado em 24 de janeiro de 1984, com um preço de US$2495. Vinha equipado com 128 KB de memória (por isso é conhecido hoje como Macintosh 128k, para diferenciá-lo de modelos posteriores, também chamados Macintosh) e rodava com o Sistema Operacional System 1, que mais tarde, já na versão 7.6, seria chamado de Mac OS. Apesar de uma acolhida entusiástica, ele era radical demais para alguns: como a máquina era construída em torno da interface gráfica, todos os programas em linha de comandos existentes tiveram que ser completamente adaptados. Isso contrariou a maior parte dos desenvolvedores de software, sendo a causa principal da falta de programas para o Macintosh no início.
O PowerPC
No início dos anos 1990, a aliança Apple Computer-IBM-Motorola anuncia a série de processadores PowerPC com arquitetura RISC. Os primeiros Macintosh utilizando o PowerPC surgiram em 1994. Devido à incompatibilidade dos processadores PowerPC e 68000, todas as aplicações Macintosh tiveram de ser reescritas, inclusive o sistema operacional Mac OS. A Apple, reconhecendo o problema, desenvolveu um software emulador para rodar programas escritos para a família 68000 nos PowerPC, mas essa solução intermediária tornava as aplicações bem mais lentas do que os programas compilados diretamente para o PowerPC. À medida que o tempo foi passando, cada vez mais programas foram sendo desenvolvidos diretamente para o PowerPC, e o uso do emulador tornou-se desnecessário. A escolha de utilizar processadores a arquitetura RISC em vez de CISC (como os x86 da Intel) foi (e ainda é) uma decisão controversa. E tambem é conhecido como o maior e mais rápido do mundo.
Os clones
Desde a criação do Macintosh, a Apple sempre resistiu a licenciar sua arquitetura para outras empresas, mantendo-se a fornecedora exclusiva.Em 1995, criticada pelo alto custo e performance da linha, e com sua fatia no mercado de computadores diminuindo rapidamente, a Apple autorizou um grupo de empresas, incluindo Umax e Power Computing, a fabricar clones do Macintosh. Esperava-se que estas empresas conquistassem outros segmentos do mercado, com modelos diferenciados de Macintosh, preenchendo nichos não explorados pela Apple.
No entanto, a maioria do fabricantes de clones apenas produziu versões dos designs projectados pela Apple, com pequenas variações de velocidade de processador e similares. Efectivamente, a Apple estava fazendo todo o trabalho de pesquisa e desenvolvimento de novos modelos, enquanto os clones apenas produziam modelos equivalentes a preços menores. Como não existiam grandes diferenças entre as linhas, a iniciativa teve um efeito contrário ao do esperado: a fatia de mercado dos modelos Macintosh não aumentou significativamente, mas a fatia proporcional da Apple diminuiu, perdendo espaço para os clones.
Em 1997, a Apple lançou uma nova versão de seu sistema operacional, o Mac OS 8, e Macintoshes baseados numa nova linha de processadores, os PowerPC G3. Nenhuma destas inovações foi liberada para os fabricantes de clones, que abandonaram o mercado em seguida, deixando a Apple como única fornecedora de Macintosh novamente.

O que um chip Intel faz dentro de um Mac?
Em junho de 2005, Steve Jobs anuncia que a Apple estava prestes a trocar os processadores PowerPC de seus computadores por processadores da Intel. Os primeiros modelos de Macintosh equipados com chips da Intel apareceram à venda em janeiro de 2006: o MacBook Pro e o iMac, ambos equipados com o processador Intel Core Duo. A Apple anuncia que o MacBook Pro é quatro vezes mais rápido do que o PowerBook G4, e o iMac duas vezes mais rápido que o iMac G5. A frase de campanha comercial da Apple para os novos modelos, bastante provocante, é: "O que um chip Intel faria dentro de um Mac? Muito mais do que já fez em qualquer PC."
Boot Camp
Em 5 de abril de 2006 a Apple anuncia a disponibilidade de Boot Camp, uma coleção de tecnologias que auxilia usuários na instalação de Windows XP Service Pack 2 (edições Home ou Professional) em computadores Macintosh baseados em processadores intel. A Apple acredita, com esse lançamento, que Boot Camp torne o Mac ainda mais atraente para os usuários de Windows que consideram a possibilidade de trocar seu PC por um Macintosh.
Arquitetura


iMac atual.
O sistema operacional, originalmente chamado the System Software ou System, tornou-se oficialmente conhecido como Mac OS na versão 7.6 (apesar de, mais precisamente, a versão 7.5.1 ter sido a primeira a mostrar o logo Mac OS e ser a primeira versão do Mac OS sob este nome). Em Março de 2001, a Apple introduziu um sucessor moderno e mais seguro, baseado no sistema operacional Unix, o Mac OS X (o X é pronunciado "dez", sendo a décima versão do Sistema Operacional.).
Desde o seu início, o Macintosh introduziu ou popularizou um grande número de inovações adotadas mais tarde por outros PCs e sistemas operacionais.
As primeiras inovações introduzidas ou popularizadas com o Macintosh original foram:
• Uma interface gráfica, ícones, um desktop, etc.
• O uso do mouse
• O clique duplo (double click) e o drag-and-drop (clicar-e-arrastar) para realizar ações com o mouse.
• WYSIWYG em edição de texto e gráficos ("what you see is what you get" - “O que você vê é o que você obtém”)
• Nomes de arquivo longos, com espaços e sem extensão (até 31 caracteres antes do Mac OS X, aumentado para 255 caracteres com o Mac OS X)
• O leitor de disquetes 3.5" de série
• Áudio de série, incluindo um alto-falante de qualidade
• Design industrial estético e ergonômico (melhorado com os modelos mais recentes, particularmente o iMac original em 1998)
Mais tarde, outras inovações foram sendo introduzidas ou popularizadas, como:
• A impressora laser PostScript
• Publicação pessoal (Desktop publishing)
• Programação pelo usuário através do HyperCard e AppleScript
• A interface SCSI (Mac Plus, 1986)
• Entrada de Áudio de série (Mac IIsi & Mac LC, 1990)
• Leitor de CD-ROM de série (Quadra 900, 1991)
• Um ambiente de trabalho único distribuído em diversos monitores
• Suporte Ethernet de série (Quadra 700 & 900, 1991)
• Universal Serial Bus, a popular entrada USB que substituiu diversas outras, se tornando um padrão mundial e atualmente usada em Pen Drives e MP3 Players.
• FireWire, também conhecido como IEEE 1394, um standard desenvolvido pela Apple e promovido também pela Sony sob o nome iLink (G3 Azul e Branco, 1998)
• Rede sem fio IEEE 802.11b e IEEE 802.11g (wireless networking), denominados comercialmente AirPort, AirPort Extreme, e AirPort Express pela Apple (iBook original, 1999)
• O abandono do leitor de disquetes (iMac original, 1998)
• O primeiro computador disponível comercialmente a se basear principalmente no USB para a conexão de periféricos. (iMac original, 1998)
• Arquitetura RISC na forma do processador PowerPC, desenvolvido conjuntamente pela Apple, IBM e Motorola (Power Macintosh 6100, 1994)
• O primeiro leitor DVD-R a preço popular ("SuperDrive", Power Mac G4, 2000)
• Monitores planos de série (iMac G4, 2002)
• Primeiros notebooks com mouse de série e teclados externos (série PowerBook 100, 1991)
• Primeiro notebook com replicador de portas, para uso como desktop (PowerBook Duo, 1992)
• Primeiro notebook com monitor de tela larga (PowerBook G4, 2000)
• Primeiro computador pessoal a arquitetura 64-bit (PowerMac G5, 2003)




IBM VS Macintosh
Voltar para dias de idade (1990), o desconhecido de maneira que é o meu bairro vai, Mac ou IBM, era um problema. Este não é o caso agora. Mais provavelmente, é um problema que você tem uma plataforma em casa e outro na escola.
O que você precisa entender é que ambos são apenas uma forma de apresentar os programas para você e / ou seus alunos para o uso. Cada um tem uma interface que lhe permite iniciar programas, usá-los, salvar e imprimir os dados. Os conceitos são os mesmos: os olhares são diferentes. Vamos lidar com o primeiro Mac. Quando a Apple desenvolveu, os poderes que ser dito: "Cada programa vai usar a mesma estrutura de menu, arquivos de som, formatos gráficos e, em geral o funcionamento do mesmo." Portanto, quando você usa um programa, a sua exibição na tela é basicamente o mesmo que qualquer outro. Se você usar um programa no Mac, as combinações de teclas e itens de menu serão semelhantes. Oh, e pela maneira, você pode nomear os arquivos quase qualquer coisa que você gosta.
IBM e clones IBM teve uma estratégia diferente. Os primeiros dias de sistemas operacionais em disco (DOS) permitida para uma convenção de nomeação de 8,3: oito caracteres separados por um ponto e mais três personagens. E tudo foi feito com o texto enigmático: sem fotos, como o Mac. E os desenvolvedores ficaram livres para desenvolver a estrutura de quase qualquer programa que gostaram. Depois vieram os usuários do Windows que deu uma imagem da estrutura DOS enigmática. Agora, temos acesso ao Windows 95 que abandona grande parte da estrutura DOS idade, requer recursos do programa comum e permite até 256 caracteres em um nome de arquivo.
Com Windows 95 - agora rebatizado Windows 97 - e uma máquina potente o suficiente, a maioria dos programas têm a mesma aparência, os dispositivos ligados (impressoras, scanners, etc) todo o trabalho usando o mesmo e os comandos do menu arquivo estrutura.
Então, o que faz o seu realmente precisa saber? Não importa qual máquina você está usando, descobrir como iniciar programas, crie algo para você usar em sala de aula, como salvá-lo e alterá-lo para uso posterior, como programas para adicionar e como se livrar de arquivos antigos. Além disso, como eu disse na seção anterior upgrades, procura. Não fique cada novo programa que vem de fora, mas a procura de uma máquina que irá fazer o que você precisa fazer para conseguir alunos a utilizá-lo como uma ferramenta para a sua aprendizagem. Caso contrário, você pode muito bem atribuir páginas livro.

CHIPSET

Faculdade Integradas Camões
Nome: Raythan Fernando Correia
CHIPSET

Introdução
Neste trabalho vamos abortar tudo a respeito do chipset um dos
principais componentes do computador.
Contaremos suas características, seu histórico, suas pontes de ligações como
são interligadas e seus objetivos dentro do computador .
Chipset
Um chipset ( em português: conjunto de circuitos integrados) é um
grupo de circuitos integrados ou chips, que são projetados para trabalhar em
conjunto e que são geralmente comercializados como um produto único.
Características
O chipset é um dos principais componentes lógicos de uma placa-mãe,
dividindo-se entre "ponte norte" (northbridge, controlador de memória, alta
velocidade) e "ponte sul" (southbridge, controlador de periféricos, baixa
velocidade). A ponte norte faz a comunicação do processador com as
memórias, e em alguns casos com os barramentos de alta velocidade AGP e
PCI Express. Já a ponte sul, abriga os controladores de HDs (ATA/IDE e
SATA), portas USB, paralela, PS/2, serial, os barramentos PCI e ISA, que já
não é usado mais em placas-mãe modernas.
Muitas vezes, como em algumas implementações de controladores para
processadores AMD K8 (Athlon 64 e Athlon X2, nos quais o controlador de
memória está embutido no processador), as duas pontes (bridges) são
substituídas por um único chip, o que reduz custos para os fabricantes.
O chipset é quem define, entre outras coisas, a quantidade máxima de
memória RAM que uma placa-mãe pode ter, o tipo de memória que pode ser
usada (SDRAM, DDR-SDRAM, Rambus, etc.), a freqüência máxima das
memórias e do processador e o padrão de discos rígidos aceitos (UDMA/33,
UDMA/66, etc.).
Histórico
Nos primeiros PCs, a placa-mãe usava circuitos integrados discretos.
Com isso, vários chips eram necessários para criar todos os circuitos
necessários para fazer um computador funcionar. Após algum tempo os
fabricantes de chips começaram a integrar vários chips dentro de chips
maiores. Como isso, em vez de usar uma dúzia de pequenos chips, uma placamãe
poderia ser construída usando apenas meia dúzia de chips maiores.
O processo de integração continuou e em meado dos anos 90 as placamãe
eram construídas usando apenas dois ou até mesmo um único chip
grande. Na Figura 2 você pode ver uma placa-mãe para 486 (lançada por volta
de 1995) usando apenas dois chips grandes com todas as funções necessárias
para fazer a placa-mãe funcionar. Com o lançamento do barramento PCI, um
novo conceito, que ainda hoje em dia é utilizado, pôde ser empregado pela
primeira vez: a utilização de pontes. Geralmente as placas-mãe possuem dois
chips grandes: um chamado ponte norte e outro chamado ponte sul. Às vezes,
alguns fabricantes de chip podem integrar a ponte norte e a ponte sul em um
único chip; neste caso a placa-mãe terá apenas um circuito integrado
grande.Com o uso da arquitetura em pontes os chipsets puderam ser
padronizados.
Os chipsets podem ser fabricados por várias empresas, como ULi (novo nome
da ALi), Intel, VIA, SiS, ATI e NVIDIA. No passado havia outros fabricantes no
mercado, como era o caso da UMC e OPTi.
Ponte Norte
O chip ponte norte, também chamado de MCH (Memory Controller Hub, Hub
Controlador de Memória) é conectado diretamente ao processador e possui
basicamente as seguintes funções:
 Controlador de Memória (*)
 Controlador do barramento AGP (se disponível)
 Controlador do barramento PCI Express x16 (se disponível)
 Interface para transferência de dados com a ponte sul
Alguns chips ponte norte também controlam o barramento PCI Express x1. Em
alguns outros é a ponte sul quem controla o barramento PCI Express x1.
Ponte Sul
O chip ponte sul, também chamado ICH (I/O Controller Hub, Hub Controlador
de Entrada e Saída) é conectado à ponte norte e sua função é basicamente
controlar os dispositivos on-board e de entrada e saída tais como:
 Discos Rígidos (Paralelo e Serial ATA)
 Portas USB
 Som on-board (*)
 Rede on-board (**)
 Barramento PCI
 Barramento PCI Express (se disponível)
 Barramento ISA (se disponível)
 Relógio de Tempo Real (RTC)
 Memória de configuração (CMOS)
 Dispositivos antigos, como controladores de interrupção e de DMA
A ponte sul é também conectada a dois outros chips disponíveis na placamãe
o chip de memória ROM, mais conhecido como BIOS, e o chip Super I/O,
que é o responsável por controlar dispositivos antigos como portas seriais,
porta paralela e unidade de disquete.
É a ponte sul que determina a quantidade (e velocidade) das portas USB e a
quantidade e tipo (ATA ou Serial ATA) das portas do disco rígido que sua
placa-mãe possui.
Conexão Entre as Pontes
No inicio a ponte norte e a ponte sul era feita através do barramento
PCI.O problema é que a taxa de transferência máxima do barramento PCI, 132
MB/s, era compartilhada por todos dispositivos PCI conectados à ponte sul, em
especial os discos rígidos. Naquela época, isso não representava problemas, já
que a taxa de transferência máxima dos discos rígidos era de 8 MB/s ou 16
MB/s.
Mas quando placas de vídeo (até então as placas de vídeo eram PCI) e
discos rígidos de alto desempenho foram lançados, foi criado um “gargalo” no
barramento PCI. Para você ter uma idéia, a taxa de transferência máxima de
um disco rígido ATA-133 é a mesma do barramento PCI! Por isso, em teoria,
um disco rígido ATA-133 consumiria toda a largura de banda do barramento
PCI, reduzindo assim, a velocidade de comunicação entre os dispositivos
conectados ao barramento.
Para placas de vídeo de alto desempenho, a solução foi a criação de um
novo barramento conectado diretamente à ponte norte, chamado AGP
(Accelerated Graphics Port, Porta Gráfica Acelerada).
Quando a Intel começou usar esta arquitetura, ela passou a chamar as
pontes de “hubs”. A ponte norte passou a ser chamada MCH (Memory
Controller Hub, Hub Controlador de Memória) e a ponte sul passou a ser
chamada ICH (I/O Controller Hub, Hub Controlador de Entrada e Saída). Isto é
apenas uma questão de nomenclatura para indicar o tipo de arquitetura que
está sendo usado.
Com a utilização dessa nova arquitetura, que é o tipo de arquitetura
usado pelas placas-mãe de hoje, quando o processador precisa ler dados do
disco rígido, os dados são transferidos do disco para a ponte sul e então
repassados para a ponte norte (através de um barramento dedicado) que por
sua vez chega até o processador (ou diretamente para a memória se o Bus
Mastering – também conhecido como DMA – estiver habilitado). Como você
pode ver, agora o barramento PCI ficou mais “folgado”, o que não acontecia na
arquitetura anterior, onde ele estava sobrecarregado.
A velocidade desse barramento dedicado depende do modelo do chipset.
Por exemplo, no chipset Intel 925X a taxa de transferência máxima deste
barramento é de 2 GB/s. Outro detalhe é que os fabricantes adotam nomes
diferentes para esse barramento:
 Intel: DMI (Direct Media Interface) ou Intel Hub Architecture (*)
 ULi/Ali: HyperTransport
 VIA: V-Link
 SiS: MuTIOL (**)
 ATI: A-Link ou PCI Express
 NVIDIA: HyperTransport (**)
CHIPSET AMD X CHIPSET INTEL
O processador da AMD é executado no chipset 780G. Comparado a
plataforma Intel 945G, ele fornece vários recursos extras, e utiliza menos
energia.
Foram comparados os chipsets AMD e Intel com base em como eles foram
implementados e utilizados na placa-mãe.
O chipset AMD usa apenas uma fração da energia que a plataforma Atom usa
no desktop, e dispõe de um conjunto de funções adicionais. A solução gráfica
onboard melhor desempenho, e oferece aceleração de vídeo superior, bem
como um DVI / HDMI.
É difícil compreender porque, embora o ICH7 southbridge da Intel tecnicamente
oferece quatro portas SATA, que os fabricantes não aplicar mais de 2 portas
em suas placas. Por outro lado, a solução da AMD com seis portas SATA
oferece mais opções para servidores de arquivos e outras aplicações
A melhor funcionalidade da solução AMD tem um preço. A placa usa o
fator de forma microATX, enquanto a placa da Intel Atom está disponível em
miniITX significativamente menor e versões miniDTX. A placa microATX da
AMD é para o mercado desktop e os casos de maior dimensão. Usamos a
placa microATX na comparação porque ele é atualmente o menor versão com
chipset mais de poupança de energia para soquetes AM2. Isto, obviamente,
vem com uma desvantagem de tamanho.
Conclusão
Foi concluído na realização desse trabalho que o clipset é um dos
principais fatores para o bom desempenho de um computador, ficando atrás do
processador e das memórias. Por isso sempre há a necessidade de escolher
placas de CPU com o chipset adequado.
Bibliografia
 www.intel.com/portugues/.../chipsets/index.htm
 www.vivaolinux.com.br
 pt.wikipedia.org/wiki/Chipset
 www.clubedohardware.com.br

BIOS

BIOS - Basic Input Output System
Adriana da Silva R. Santos (FICA) aribeirosantos2009@bol.com.br
Hunglesnei MS. Freimuller (FICA) hunglesnei@gmail.com
Resumo
Este trabalho faz um breve estudo sobre o BIOS, um componente tão essencial e importante quanto qualquer outro no computador. Em português pode ser traduzido como Sistema Básico de Entrada e Saída, porém suas funções vão muito além do significado que foi-lhe atribuído, comparado com um “motor de arranque”, fica responsável por dar o impulso inicial, além de ser responsável pelo controle do hardware, gerenciar os dados necessários para a inicialização do sistema entre outas funções.
Palavras-chave: BIOS. Dispositivos. Sistema. Chip. Computador.
1 Introdução
O BIOS teve origem junto com o sistema operacional CP/M (Control Program/ Microcomputer ou "Programa de Controle para Microcomputadores"), onde todas as operações de entrada e saída concentram-se num módulo chamado BIOS, normalmente tinham apenas um gerenciador de inicialização simples em sua ROM.
O BIOS, conhecido também como Basic Input Output System (Sistema Básico de Entrada e Saída) é um firmware (programa de computador) pré-gravado na ROM (memória de leitura permanente). Quando o computador é ligado, o BIOS é o primeiro programa a ser executado, realizando a contagem de memória, uma rápida checagem do funcionamento do computador, fornece suporte básico de acesso ao hardware e também inicia os sistemas operacionais instalados, esse processo é conhecido como “arranque”. Embora teoricamente o BIOS seja sempre o intermediário entre o microprocessador e os dispositivos de I/O e informações de controle de fluxo de dados, em alguns casos, o BIOS pode organizar o fluxo de dados diretamente para a memória a partir de dispositivos (como placas de vídeo) que exigem um fluxo mais rápido fluxo de dados para ser eficaz.
2 Tipos de armazenamento
Podem ser utilizados os tipos PROM, EPROM e Memória Flash para armazenamento do BIOS.
ROM: só se pode gravar no momento em que se fabrica o chip. A informação que contem não poderá ser alterada. EPROM: esses chips só podem ser gravados com luz ultravioleta. Na parte superior do chip pode-se notar uma especie de ventilação transparente, que pode estar tampada com uma etiqueta. Flash BIOS: são os mais utilizados atualmente. Estes chips permitem gravar imediatamente através de impulsos elétricos, assim o próprio usuário pode fazer uma atualização com o auxilio de um programa fornecido pela fabricante. As fabricantes mais conhecidos são AMI, Award, Insyde Software, Phoenix Technologies, Unicore, MrBIOS entre outras marcas. Antes do início dos anos noventa, o BIOS era armazenado em ROM ou chips PROM, que não poderiam ser alterados pelos usuários. Como a sua complexidade e necessidade de atualizações cresceram, hoje são armazenados em EEPROM ou Flash ROM (memória regravável), podendo ser facilmente atualizada pelo usuário sem a necessidade de muito conhecimento técnico, seguindo apenas instruções da fabricante. Os chips de memória flash para a gravação do BIOS tornaram-se comum por volta de um mil novecentos e noventa e cinco, pois o PROM pode ser apagado eletricamente (EEPROM), são mais baratos e mais fáceis de programar. Já os chips padrão PROM (EPROM), são apagados somente pela exposição prolongada à luz ultravioleta. Os chips EEPROM, vêm com a funcionalidade adicional de permitir uma reprogramação do BIOS, as versões do BIOS são atualizadas para reconhecer as novas versões de hardware e para corrigir bugs (defeitos) nas revisões anteriores. Inicialmente, os chips flash EEPROM eram ligados ao barramento ISA. A partir de um mil novecentos e noventa e sete, o BIOS flash foi transferido para o barramento LPC, um substituto funcional para o ISA, na sequência, uma nova implementação padrão conhecido como "hub" firmware (FWH). Um computador pode conter vários chips de BIOS. Na motherboard, geralmente contém o código para acesso aos componentes de hardwares fundamentais, como o teclado, drives de disquetes, ATA (IDE) controladores de disco rígido, dispositivos de interface USB humanos, e dispositivos de armazenamento. Além disso, existem também os cartões plug-in como o adaptador SCSI, RAID, placas de rede e placas de vídeo que também costumam ter seu próprio BIOS, complementando ou substituindo o sistema de código do BIOS para o componente especificado.
3 Principais funções
Na maioria dos computadores, o BIOS, possui quatro funções principais que são: POST (Power On Self Test) – O contador de execução que conta os kilobytes de memória principal, faz o teste de hardware do computador, verificando se está funcionando corretamente antes de iniciar o processo de carregamento do sistema operacional. Se o computador não passar pelo POST, será ouvida uma combinação de beeps (sinais sonoros), também conhecidos como BIOS Tone POST Codes, indicando que existe uma falha em algum dispositivo do computador. Deste modo conseguiremos “decifrar” alguns problemas, ou seja, ao ligar o computador estes beeps devem ser contados e interpretados através da tabela fornecida pelos produtores do BIOS ou da placa-mãe.
Muitas vezes é possível achar uma solução exata, evitando perda de tempo com outros testes mais avançados e até mesmo gastos desnecessários com compra de novas peças.
Beep
Significado do Erro Percentual
1 curto
Atualização de DRAM
2 curtos
Circuito de Paridade
3 curtos
Memória Base 64K RAM
4 curtos
Timer do Sistema
5 curtos
Processador
6 curtos
Controlador de teclado – gate A20
7 curtos
Virtual mode exception
8 curtos
Teste de memória (read/write) de vídeo
9 curtos
ROM BIOS checksum
10 curtos
CMOS shutdown read/write
11 curtos
Memória Cache
1 longo, 3 curtos
Memória Convencional/extendida
1 longo, 8 curtos
Teste de Display/retrace
Tabela 1 – AMI BIOS Tone POST Codes Fonte: Site AMI (American Megatrends).
Bootstrap Loader - processo de localizar o S.O. (Sistema Operacional), Se for localizado, o BIOS irá passar o controle para ele. BIOS - Software/ Drivers faz a interface entre o sistema operacional e o hardware, são os drivers de dispositivo simples que os programas podem usar para acessar o monitor, o
teclado e os discos. Quando executamos o DOS ou Windows é usando o suporte completo do BIOS. BIOS/ CMOS Setup – é o menu de configuração que lhe permite definir alguns parâmetros de hardware, configurações do sistema, como senhas de computador, à hora e data. Na maioria das versões modernas também é permitido ordenar o arranque, ou seja, qual o dispositivo deve ser lido primeiro (CD-ROM, USB, FDD, HD, etc.). Alguns BIOS contêm uma assinatura digital, uma espécie de “marca” de identificação, colocada pelas fabricantes de computadores. Assim, as distribuições OEM do Microsoft Windows e aplicativos Microsoft, podem usar este recurso para autenticar as licenças de uso dos softwares. Exemplos desse recurso encontramos em PCs da Dell e da Positivo Informática, que não exigem chave de ativação do sistema operacional.
4 Conclusões
Existem projetos para tentar substituir o BIOS proprietário para um “Open Firmware” ou “Open BIOS”, ou seja, um BIOS com código aberto, elaborado através das comunidades Open Source AsteriskBrasil e OpenBIOS.
Permitindo a comunicação de baixo nível para decidir a entrada e a saída básica de dados, durante o arranque, sabemos que o BIOS é importante, sem ele nosso computador não inicializaría.
Espera-se que este artigo sirva para futuras pesquisas e conhecimento do BIOS e suas funcionalidades.
5 Referências
BASIC Input Output System - Disponível em:
Acessado em 27 Março 2010.
MUNDO PC. Artigo Configuração da BIOS - Disponível em: Acessado em 27 Março 2010.
TODO Hardware. Artigo BIOS - Disponível em: Acessado em 25 Março 2010.
WIKIPEDIA. Artigo BIOS. Disponível em: Acessado em 25 Março 2010.