1

Conectividade sem fio

Como uma nova tecnologia de conectividade sem fio, a Bluetooth elimina os cabos usados para conectar os dispositivos digitais. Baseada em um link de rádio de curto alcance e baixo custo, essa tecnologia pode conectar vários tipos de dispositivos sem a necessidade de cabos, proporcionando uma maior liberdade de movimento. E, afinal de contas, é disso que trata a mobilidade.

Para estabelecer uma conexão, basta colocar dois dispositivos equipados com Bluetooth a uma distância de até 10 metros um do outro. E, como a tecnologia Bluetooth utiliza um link de rádio, não é necessário sequer uma conexão em linha de visada para estabelecer a comunicação. O seu laptop pode enviar informações para uma impressora na sala ao lado ou você pode utilizar o celular para controlar o sistema de alarme da sua casa.

Bluetooth já se transformou em um padrão comum mundial para a conectividade sem fio. No futuro, é provável que seja um padrão utilizado em milhões de celulares, PCs, laptops e em toda uma gama de dispositivos eletrônicos. Portanto, o mercado exigirá novas aplicações inovadoras, serviços de valor agregado e soluções completas.

As possibilidades de conectividade sem fio que a tecnologia Bluetooth nos oferece são praticamente ilimitadas. Além disso, como a radiofreqüência utilizada está disponível em âmbito mundial, a tecnologia Bluetooth pode oferecer acesso rápido e seguro as conexões sem fio em todo o mundo. Com um potencial assim, não será surpresa se a Bluetooth se transformar em uma das tecnologias de mais rápida adoção da história.

Em 1994, a Ericsson começou a analisar uma interface de rádio que tivesse baixo consumo e baixo custo. O objetivo era desenvolver uma tecnologia para ligar telefones móveis e os seus acessórios sem utilizar fios. Em 1998, depois da Ericsson já ter chegado à conclusão de que o potencial para dispositivos que usem ligações de rádio de curto alcance era praticamente ilimitado, os grandes a IBM, a Nokia, a Toshiba e a Intel se uniram e formaram o chamado Bluetooth Special Interest Group com o objetivo de conduzir e desenvolver a tecnologia sem fios. 

O consórcio Bluetooth cresceu incrivelmente em poucos anos e já conta com a participação de mais de 2000 empresas, dentre elas HP, 3Com, Philips, Motorola, Samsung, Siemens, Dell, Sony… Isso permitiu uma ampla divulgação da tecnologia em todo o mundo.

O nome Bluetooth foi escolhido em homenagem ao rei da Dinamarca Harald Blatand, que era conhecido como Harald Bluetooth. Esse apelido lhe foi dado por ele possuir uma coloração azulada em seus dentes. O apelido foi usado para esta tecnologia pelo fato de Harald Bluetooth ter ficado conhecido como unificador da Dinamarca, logo o significado de Bluetooth é unificação.

1

Símbolo oficial da tecnologia Bluetooth

A tecnologia Bluetooh é, basicamente, um padrão para comunicação sem-fio de baixo custo e de curto alcance. Através dele permite-se a comunicação sem fio entre aparelhos eletrônicos que podem ser telefones celulares, Palmtops, computadores, scanners, impressoras, equipamentos de escritório, enfim, qualquer aparelho que possua um chip Bluetooth. Esta comunicação realiza-se através de ondas de rádio na freqüência de 2.4 GHz, que não necessita licença e está disponível em quase todo o mundo.

Em relação à sua velocidade pode chegar a 721 Kbps e possui três canais de voz.
As desvantagens desta tecnologia são o seu raio de alcance, 10 metros e o número máximo de dispositivos que podem se conectar ao mesmo tempo

Os dispositivos Bluetooth se comunicam formando uma rede que chama-se piconet ou picorede, na qual podem existir até oito dispositivos conectados entre si. Necessariamente um deles é o master, ou seja, o principal, sendo os demais os dispositivos escravos (slave). Apesar de oito ser um número muito pequeno, é possível sobrepor vários piconets, aumentando os pontos de comunicação. Esse método é conhecido como scatternet e desta forma podem coexistir até 10 piconets num mesmo lugar de cobertura de rádio. A segurança está preservada graças a que cada piconet decodifica-se e protege contra interferências de intrusos.

Para a operação do Bluetooth na faixa ISM de 2,45 GHz, foram definidas 79 portadoras espaçadas de 1 MHz. Ou seja, existem 79 freqüências nas quais instantaneamente um dispositivo pode estar transmitindo. A seqüência escolhida deve ser estabelecida pelo dispositivo mestre da piconet e os dispositivos escravos devem tomar conhecimento dessa seqüência para poderem se comunicar. Isso é feito através de sincronismo. Para minimizar interferências, o dispositivo mestre pode mudar sua freqüência 1600 vezes por segundo!

Para estabelecer conexões no Bluetooth, são necessários três elementos: scan, page e inquiry.

SCAN – É usado para economia de energia. Quando dispositivos estiverem ociosos, eles entram em modo stand-by.e passam a verificar a cada 10 ms se existe algum dispositivo tentando estabelecer uma conexão.

PAGE – É utilizado pelo dispositivo que deseja estabelecer conexão. A cada 1,25 ms são transmitidos dois pedidos de conexão seguidos em diferentes portadoras. O dispositivo verifica também duas vezes se há respostas.

INQUIRY- São mensagens enviadas por um dispositivo para determinar quais outros dispositivos estão em sua área e quais suas características. Ao receber esta mensagem, um dispositivo deve retornar um pacote chamado FHS (Frequency Hopping-Synchronization) contendo além de sua identidade, informações para o sincronismo entre os dispositivos.

Para quem tem um micro com uma verdadeira teia de fios e conectores na parte traseira, fica a boa notícia: Com a expansão da tecnologia BlueTooth as conexões através de cabos estão com os seus dias contados. Da mesma forma a conexão via porta infravermelhas (IrDA) perderá importância, isto devido a desvantagem da sua pequena largura de banda  e de ter que manter os dispositivos em linha de visão.

Quando falamos de Wi-Fi e Bluetooth, uma certa confusão aparece na cabeça das pessoas. Muita gente acha que as duas coisas têm o mesmo propósito ou, até mesmo, que são a mesma coisa. Na verdade, as duas tecnologias têm propositos totalmente diferentes um do outro.

Wi-Fi para um lado, Bluetooth para o outro. Wi-Fi (Wireless Fidelity) é o termo empregado para definir o acesso a redes sem fio ou redes wireless. Tanto o Wi-Fi quanto o Bluetooth operam por ondas de rádio. O sinal do Wi-Fi (802.11b) opera a uma frequência de de 2.4GHz, permitindo taxas de até 11megabits/s e tem o alcance muito maior que o sinal de um dispositivo Bluetooth, que também opera num espectro de frequência parecido: 2400~2483.5MHz, porém, a velocidades bem menores: 1Mbps. O sinal de um dispositivo Bluetooth tem um alcance (em média) de 10 a 100 metros. Já o alcance de cobertura de um ponto Wi-Fi pode chegar até 300 metros.

O padrão Bluetooth, criado pela Ericsson, em parceria com a IBM, Intel, Nokia e Toshiba, traz como propósito resolver um antigo problema de conectividade entre aparelhos domésticos, portáteis ou de informática: os fios. Muito em breve, será possível acionar o alarme do carro através de Bluetooth, assim como controlar o volume do receiver da sala. A grande verdade é que o Bluetooth veio para acabar de uma vez por todas com o infra-vermelho, que já pode ser considerada uma tecnologia obsoleta e tecnicamente esgotada.

Muitos dos aparelhos que hoje se conectam via cabo (impressoras, mouses, monitores, etc) passarão a conectar via Bluetooth (sem fios) e muitos dos aparelhos que hoje contam com recursos de infra-vermelho (controles remotos, celulares, antigos PDAs) passarão a ser compatíveis com o padrão Bluetooth. Veja abaixo alguns celulares disponíveis no mercado que já contam com a tecnologia.

2

Além de substituir a ultrapassada tecnologia do infra-vermelho, o Bluetooth traz grandes vantagens e avanços para o mercado. As empresas participantes do projeto Bluetooth conseguiram desenvolver um chip tão barato que, muito em breve, teremos esse padrão espalhado por todos os lados. Não vai demorar muito para vermos o desaparecimento das portas USBs e seus cabos, na mesma velocidade em que elas apareceram no mercado.

A tecnologia Wi-Fi, foi desenvolvida para permitir a criação de redes de dados (LANs ou local area networks) via rádio. Isso significa que, através dessa tecnologia, muitos desses fios que vemos espalhados hoje pelos escritórios e prédios comerciais vão para o espaço. Numa rede Wi-Fi o elemento principal é o wireless router, que é o aparelho responsável por transformar o tráfego da rede em ondas de rádio, criando assim a rede Wi-Fi. Os demais computadores também equipados com placas de rede wireless, sintonizam nesse sinal de rádio emitido pelo wireless router e conseguem compartilhar dados e informações.

Hoje, existem no mercado três variações do padrão Wi-Fi: o 802.11a, 802.11b e 802.11g. O mais comum é o 11b, largamente utilizado em escritórios e até mesmo em residências. O 802.11a opera em 5GHz, a uma taxa de transmissão de 54Mbps e é o que tem o menor alcance em ambientes internos, pelo fato de sua frequência ser mais alta. O 802.11b opera em 2,4GHz (a mesma do Bluetooth) e tem uma taxa de até 11Mbps. Já o padrão 802.11g tem uma taxa de transmissão de 54Mbps, operando em 2.4GHz. Por utilizarem um espectro de frequência não licenciado, um dos maiores problemas dos padrões 11b/g é a grande facilidade de encontrar interferências com outros dispositivos domésticos, como um microondas ou telefone sem fio, por exemplo. Aparelhos equipados com o padrão 11b ou 11g não são

compatíveis com o 11a. Pode-se dizer que a porta de entrada para o mundo Wi-Fi está sendo o padrão 11b, já que os produtos comatíveis com o 11g ainda não são tão baratos.

Enquanto o Wi-Fi se estabiliza e toma conta do mercado, o padrão WiMAX (IEEE 802.16) já está sendo preparado e testado em diversas partes do mundo. Com o WiMAX será possível ter cobertura de quarteirões inteiros, tornando, de uma vez por todas, a computação móvel uma realidade presente no nosso dia-a-dia. Segundo a Intel, “o WiMAX é a coisa mais importante desde a própria internet”.

GOSTOU DEIXE UM COMENTÁRIO

17

Remover o fundo de uma imagem

Aprenda a remover o fundo de uma imagem com perfeição e com extrema facilidade, possibilitando o implante de qualquer background que você quiser.

Um dos problemas mais comuns quando estamos manipulando uma imagem no Photoshop é a dificuldade de fazer bons recortes, principalmente se temos pessoas nesta imagem, pois, os cabelos são extremamente complicados de selecionar. Para facilitar esse processo, a Adobe adicionou uma ferramenta a partir da versão CS5 que facilita – e muito – a vida de quem queira remover o fundo de uma imagem, a opção “Redefine Edge“.

Neste tutorial vamos te ensinar como retirar o fundo de uma imagem utilizando a redefine edge, por isso, vamos escolher uma imagem que seja relativamente fácil realizar esta tarefa, uma que tenha um bom contraste de cores e sem muitos detalhes.

Veja mais tutoriais de Photoshop

Para começar, vamos escolher uma imagem, portanto, clique na aba “File” e em seguida clique em “Open…“.

5Escolha a sua imagem onde quer que ela esteja e então clique em “Abrir”.

6

que a imagem carregar, dê um duplo clique sobre o cadeado de “Background“.

7Clique em “OK” para desbloquear a camada

8

Selecione a ferramenta “Polygonal Lasso Tool” ou pressione a tecla L do seu teclado.

9

Com a ferramenta selecionada, vá clicando ao redor do que você quer separar do fundo. Não se preocupe em fazer uma seleção perfeita, neste momento estamos só informando ao Photoshop o que queremos selecionar e manter em nossa composição. Para finalizar a seleção, basta clicar sobre o ponto onde você a iniciou.

10

Depois de finalizada a seleção, clique sobre o botão “Redefine Edge…“, localizado na barra de ferramentas superior do Photoshop.

11Na janela que abrir, clique no menu “View” e selecione a opção “Overlay“, dessa maneira, poderemos ver com clareza o que está sendo selecionado.

12Escolha um tamanho para o pincel de seleção que seja adequado à sua imagem e comece a selecionar os cantos do destaque como mostrado no caminho em vermelho na imagem abaixo. Não se preocupe em passar o pincel de seleção sobre o corpo do destaque, o Photoshop já sabe que você não quer selecioná-lo, o mesmo vale para o cabelo dos personagens, você pode passar o pincel sobre eles, o programa reconhecerá os fios e os manterá fora da seleção

13

Depois de pintar as áreas onde você quer realizar a seleção para remover o fundo, selecione a caixa “Decontaminate colors” e mantenha o “Amount” em 50%. Com esta opção ativada, a cor do cabelo será mantida caso outro background seja adicionado, ou seja, não haverá esmaecimento em seleções finas.

14

Em “Output to” selecione “New Layer“, dessa maneira, o destaque será recortado para uma nova camada do Photoshop, facilitando o seu uso em edições futuras. Depois, clique em “OK“.

15Na imagem abaixo, você pode ver o resultado final de nossa seleção. Nos locais do background onde havia pouco contraste com a seleção principal, um esmaecimento da imagem foi adicionado para garantir que nada do que queremos manter intacto fosse danificado

16

Embora o nosso resultado já tenha sido satisfatório, se adicionarmos um fundo branco em nossa imagem, é possível perceber que existem imperfeições na seleção, a qual podemos corrigir utilizando a ferramenta “Eraser Tool“, a qual conhecemos como borracha. Com ela, você poderá apagar estas imperfeições.

17O resultado final de nossa seleção você pode ver na imagem abaixo

18

GOSTOU DEIXE UM COMENTÁRIO

05

Significado das Siglas

 ADSL Assimetric Digital Subscriber Line, tecnologia de acesso rápido que usa as linhas telefônicas oferecida em várias cidades. As velocidades variam em geral de 256 k a 2 mbps, dependendo do plano escolhido. A principal virtude é não usar o sistema telefônico comutado, dispensando o assinante de pagar pulsos, apenas a tarifa mensal.

:. AGP Acelerated Graphics Port. Barramento de dados extremamente rápido usado pela placa de vídeo. Aparece como um slot marrom na placa mãe.

:. APM Advanced Power Management. Sistema avançado de gerenciamento de energia que permite diminuir o consumo elétrico do computador. Útil sobretudo em micros portáteis.

:. AT Advanced Tecnology, como era chamado o 286 lançado pela IBM em 84 (na época fazia sentido :-) Hoje é mais usado para se referir a gabinetes que não ainda não usam fonte ATX.

:. ATX O padrão de design para as placas e gabinetes modernos, prevê medidas definidas para as placas mães, gabinetes e modificações na fonte de alimentação.

:. ASP Active Server Pages, linguagem de programação para a Internet.

:. BBS Bulletin Board Service. Os primeiros serviços online, bem antes da Internet. A conexão era feita via modem, na época ainda modelos de 1200 ou 2400 bips.

:. BIOS Basic Input / Output System. A primeira camada de software do sistema, responsável por “dar a partida” no micro.

:. CD Compact Disk.

:. CISC Complex Instruction Set Computer. Computadores que executam diretamente um conjunto complexo de instruções, como o 486. Os processadores atuais incorporam um núcleo RISC (Reduced Instruction Set Computer), sendo chamados de híbridos.

:. CMOS Complementary Metal Oxide Semiconductor. Um pequeno pedaço de memória volátil, alimentado por uma bateria, usado para gravar as configurações do Setup.

:. CPU Central Processing Unit. Era mais usado na época dos mainframes, o termo mais atual é processador.

:. DDR Double Data Rate. Um tipo de memória duas vezes mais rápido que as memórias SDRAM atuais, que vem ganhando popularidade.

:. DIMM Double Inline Memory Mode. Os módulos de memória de 168 vias usados atualmente.

:. DMA Direct Memory Access. É uma recurso da placa mãe que permite que os periféricos acessem diretamente a memória RAM, sem consumir poder de processamento do processador.

:. DNS Domain Name Service. Transforma os endereços IP em nomes amigáveis, como http://www.guiadohardware.net, pode ser usado também em Intranets.

:. DOS Disk Operating System. Pode ser usado em relação a qualquer sistema operacional, mas é normalmente usado em relação ao MS-DOS

:. DVD Digital Versatile Disk, armazena muito mais dados que o CD-ROM, sendo atualmente usado para armazenar filmes.

:. ECP Extended Capabilities Port é o padrão atual para a porta da Impressora, bem mais rápido que os padrões anteriores.

:. EDO RAM Extended Data Output Dynamic Ramdom Access Memory, evolução das memórias FPM, usada principalmente em micros Pentium antigos.

:. EPP Enhanced Parallel Port, padrão de porta paralela anterior ao ECP, tem a mesma velocidade, mas não suporta DMA.

:. EULA End User License Agreement. O contrato que você aceita antes de instalar os programas, geralmente sem ler :-)

:. FAQ Frequently Asked Questions. As perguntas mais comuns sobre algum tema. Para ler antes de perguntar. :-)

:. FAT File Allocation Table. Num HD armazena a lista dos endereços ocupados por cada arquivo guardado, permitindo localiza-los.

:. FDD Floppy Disk Drive. O infame drive de disquetes.

:. FTP File Transfer Protocol. É um protocolo usado para transferir arquivos pela Internet.

:. HDD Hard Disk Drive. A mesma coisa que disco rígido.

:. HTML Hyper Text Markup Language. Uma linguagem de formatação de texto desenvolvida nos primórdios da Internet, mas padrão até hoje.

:. HTTP Hyper Text Transfer Protocol. Foi desenvolvido originalmente para transferir páginas HTML, mas pode e é usado também para outros tipos de arquivo. As páginas WEB são acessadas usando-se este protocolo.

:. IDE Integrated Device Electronics. Barramento de dados que serve para a conexão do disco rígido, CD-ROM e outros dispositivos.

:. IRQ Interrupt Request Line. Funciona uma campainha que cada dispositivo pode usar quando quiser transferir dados ou instruções para o processador. Existem apenas 16 IRQs nos micros PC, dois dispositivos não podem usar o mesmo endereço.

:. ISA Industry Standard Architeture, padrão de barramento desenvolvido para os micros 286, mas usado até hoje. Os slots pretos da placa mãe.

:. ISDN Integrated Services Digital Network. Permite acessar a Internet a 128 K usando a linha telefônica. Disponível na maioria das cidades, mas pouco usado por causa das altas tarifas.

:. LAN Local Área Network. Qualquer rede de micros que englobe um pequeno espaço, uma sala ou mesmo um prédio.

:. LBA Logical Block Addressing. Um método de tradução que permite ao BIOS reconhecer HDs com mais de 528 MB. Suportado por todas as placas mães atuais.

:. MAC Macintosh Computer. Desenvolvido pela Apple, foi em 84 o primeiro micro doméstico a usar interface gráfica e modem. A arquitetura continua evoluindo até hoje, sendo a principal concorrente dos micros PC.

:. MBR Master Boot Record. A trilha zero do HD, onde ficam guardadas as informações sobre o(s) sistema(s) operacionais instalados.

:. MP3 MPEG Layer 3. Padrão de compactação de áudio que permite que as músicas fiquem com 1/10 do tamanho original sem uma degradação muito grande da qualidade.

:. NTFS NT File System. Sistema de arquivos usado pelo Windows NT e Windows 2000. Oferece vários recursos.

:. OS Operational System

:. PC Personal Computer. O primeiro PC foi lançado pela IBM em 81. Depois vieram os XTs, 286s, 386s até chegar nos dias de hoje.

:. PCI Peripheral Component Interconnect. O padrão de barramento atual, usado pela maioria dos dispositivos. Os slots brancos da placa mãe.

:. PnP Plug and Play. Também chamado jocosamente de “Plug and Pray” (encaixe e reze :-), a idéia era permitir que novos periféricos fossem automaticamente reconhecidos e instalados, sem esforço do usuário.

:. RAM Ramdom Access Memory. Memória de acesso aleatório, é a memória mais usada não apenas em micros PCs, mas na maioria dos computadores. É barata, mas tem a desvantagem de ser volátil.

:. RIMM Rambus Inline Memory Mode. Um padrão de memórias ultra rápido e ultra caro desenvolvido pela Rambus Inc. que a Intel insiste em tentar empurrar junto com seus processadores.

:. RISC Reduced Instruction Set Computer. Computadores que são capazes de executar poucas instruções diferentes, sendo em compensação extremamente rápidos.

:. ROM Read Only Memory. Existem vários tipos, usada para guardar dados que não precisarão ser alterados.

:. SCSI Small Computer System Interface. Um padrão de barramento para a conexão de discos rígidos, CD-ROMs, scanners, impressoras e vários outros dispositivos. Desenvolvido originalmente pela Apple para uso nos MACs.

:. SIMM Single Inline Memory Mode, os módulos de 72 vias usados até pouco tempo atrás.

:. SVGA Super VGA, é geralmente usado com relação a monitores que suportam resoluções superiores a 640 x 480 e mais de 256 cores.

:. TCP/IP Transmissão Control Protocol / Internet Protocol. Desenvolvido na década de 60 pelo departamento de defesa dos EUA, para ser usado na Arpanet, rede militar que foi o embrião da Internet atual. A principal virtude do TCP/IP é permitir que os outros computadores da rede continuem conectados mesmo caso um ou vários computadores caiam. No caso de uma guerra, o que sobrasse da rede continuaria funcionando.

:. TSR Terminate and Stay Resident.

:. USB Universal Serial Bus. Barramento plug-and-play relativamente lento (12 mbps) que pode ser usado por vários tipos de dispositivos. Todas as placas mãe atuais trazem pelo menos 2 portas USB. Cada porta pode ser compartilhada por vários dispositivos.

:. VLB Vesa Logical Bus. Um padrão de barramento sucessor do ISA, mas anterior ao PCI, usado apenas em placas para 486. Criado pela Vesa, uma associação de fabricantes de placas de vídeo em 93.

:. WAP Wireless Application Protocol, um protocolo de dados desenvolvido para uso em dispositivos sem fio, como celulares.

:. WWW World Wide Web, ou Wait, Wait, Wait caso você use modem de 14.4 :-)

:. ZAW Zero Administration for Windows. Uma coleção de utilitários produzidos pela Microsoft que visa diminuir o trabalho dos administradores de rede, permitindo atualizar programas das estações apartir de qualquer ponto da rede, por exemplo.

GOSTOU DEIXE UM COMENTÁRIO

placa mãe lcm

Termos Técnicos de Informática

É preciso conhecer os termos técnicos de informática para entender os manuais dos produtos e as informações existentes nos sites especializados e dos fabricantes. Mas é preciso também conhecer os termos populares (normalmente imprecisos) usados no comércio e quase sempre pelos usuários. Um bom técnico precisa conhecer ambos os termos.

Muitos aprendem errado desde o início, mas nunca é tarde para conhecer o certo. Profissionais como professores e técnicos têm não somente a obrigação de conhecer os termos corretos, mas também de usá-los no dia-a-dia e divulgá-los entre os usuários.
 
Módulo de memória e pente de memória

O termo pente de memória  surgiu na década de 1980, quando chegaram ao mercado os módulos SIPP. Eram pequenos módulos de memória, bem menores que os atuais DIMM/168 e DIMM/184 e tinham 30 pequenas “perninhas” (falando tecnicamente, “pinos”) que eram encaixadas em soquetes na placa-mãe. Devido a essas “perninhas”, esses módulos pareciam um pente.

Logo depois foram criados os módulos SIMM/30 com o mesmo tamanho e os mesmos 30 contatos, porém, sem as “perninhas”. Depois disso vieram outras gerações de módulos: SIMM/72, DIMM/168 e DIMM/184 são os mais populares, mas ainda assim continuam sendo chamados popularmente de “pentes”.

Memórias DIMM

Em 1997, foram popularizadas as memórias SDRAM. Era época do processador Pentium MMX. Essas memórias eram fabricadas em chips que por sua vez formavam módulos chamados DIMM/168, pois tinham 168 terminais. No comércio foi convencionado chamá-las de memórias DIMM.

Por volta de 2000, chegaram ao mercado as memórias do tipo DDR SDRAM ou simplesmente DDR, formando módulos DIMM/184. Os nomes usados popularmente para essas memórias são DIMM e DDR. Note, entretanto, que as memórias DDR também usam módulos DIMM, porém, do tipo DIMM/184. Da mesma forma como as novas memórias DDR2 usam módulos DIMM/240.

Seria tecnicamente correto chamar essas memórias de DIMM/168, DIMM/184 e DIMM/240, respectivamente; ou, então, de SDRAM, DDR e DDR2.
 
CPU

Significa central processing unit. Este termo era usado para designar a parte dos computadores de grande porte responsáveis pelo processamento. Antigamente, era um módulo inteiro do tamanho de uma estante. Em computadores mais compacto, a CPU era uma placa inteira. Nos microcomputadores, a CPU é o processador. A placa na qual o processador é instalado é chamada placa-mãe ou placa de CPU. É errado dizer que esta placa é a CPU. É apenas a placa onde fica instalada a CPU.

Popularmente, o termo CPU é também usado para designar o gabinete onde ficam as placas, discos e fonte de alimentação. O computador é formado por monitor, CPU e teclado _ está errado usar esta afirmação. Aquela caixa metálica é também chamada de gabinete ou torre. Ambos os termos são imprecisos, pois o gabinete também pode ser simplesmente a caixa metálica vazia – como é comprada nas lojas – e gabinetes também são desktops (horizontais) e não somente verticais.

Todos os termos são aceitos, mas a rigor não poderia ser chamada de CPU, já que além de processamento também realiza armazenamento e entrada/saída de dados.

BIOS

BIOS significa Basic Input/Output System, ou seja, sistema básico de entrada e saída. É um programa armazenado em uma memória Rom (mais especificamente, uma flash Rom) localizada na placa-mãe. Já que trata-se de um sistema, é correto dizer o sistema, e não “a sistema”. Portanto, o termo “a BIOS” é uma expressão errada.
 
Saídas seriais, paralelas, USB…

Algumas interfaces do computador são usadas para saída de dados (exemplo: a da impressora); outras são usadas para entrada de dados (exemplo: a do teclado). A maioria das interfaces, entretanto, é usada tanto para entrada como para saída de dados: como as seriais e USB.

Até mesmo a porta paralela é bidirecional (desde o início dos anos 90) e serve para saída (no caso da impressora) para entrada (no caso de scanners, por exemplo) e para ambas as operações (por exemplo: no caso do zip drive paralelo).

Devido a essa variedade de opções, é errado usar temos como saída USB, saída paralela, saída serial. Seria melhor dizer portas ou interfaces, ao invés de termos imprecisos como entrada e saída.

Winchester

Nos anos 80, o disco rígido era chamado de winchester. Este termo começou, aos poucos, a cair em desuso e já em meados dos anos 90 ficou fora de moda. O termo aceito mundiamente é hard disk ou disco rígido. Alguém que o chame de winchester pode dar a impressão de que acaba de chegar de 1990 em algum tipo de máquina do tempo.

Resetar o BIOS

Clear CMOS é uma operação que consiste em deixar a memória de configuração CMOS da placa-mãe sem energia por alguns segundos, provocando seu apagamento. Usamos este recurso para apagar senhas no CMOS Setup ou desfazer configurações que impeçam o funcionamento do computador (por exemplo: a programação do FSB do processador com uma velocidade errada).

Ao constatar que a memória CMOS está zerada (mais precisamente, com dados inconsistentes, através de um Checksum), o BIOS automaticamente a recarrega com valores de fábrica. Não estamos,portanto, zerando ou resetando o programa BIOS e sim zerando a memória CMOS.

Apesar das pequenas imprecisões técnicas citadas aqui, nenhuma delas causa mau funcionamento do computador. Apenas recomendamos que os técnicos valorizem mais o uso dos termos técnicos corretos

GOSTOU DEIXE UM COMENTÁRIO

62464

componentes que formam um computador atual

de alguma forma mística são guardadas e processadas informações. Mas, de misterioso os
computadores não têm nada. Tudo funciona de maneira ordenada, e até certo ponto simples.
Hoje em dia, quase todo mundo com condições para pagar um curso, ou ter um PC em casa,
aprende muito rápido como usar o Windows ou mesmo o Linux, acessar a Internet, ou seja, usar o
micro. Mas, dentre todos estes usuários, poucos, muito poucos realmente entendem como a
máquina funciona. O que muda entre um processador Pentium ou um Athlon por exemplo? Por
que um PC com pouca memória RAM fica lento? Como funciona um disco rígido, e como é possível
armazenar uma quantidade tão grande de dados num dispositivo tão pequeno? O que fazem as
placas de vídeo 3D e em que tarefas elas são necessárias? Qual é a diferença entre uma placa de
som “genérica” e outra que custa mais de 100 dólares? Por que alguns modems são tão ruins?
Como um PC funciona??
O objetivo deste texto introdutório é lhe dar uma visão geral sobre os componentes que formam
um computador atual e como tudo funciona. Você encontrará também várias dicas de compra,
explicações sobre termos e convenções usadas, etc. O objetivo é servir como “o caminho das
pedras” para quem está começando a estudar hardware, e precisa de um empurrãozinho inicial
para poder estudar tópicos mais avançados.
Como funciona o sistema binário?
Existem duas maneiras de representar uma informação: analógicamente ou digitalmente. Uma
música é gravada numa fita K-7 de forma analógica, codificada na forma de uma grande onda de
sinais magnéticos, que pode assumir um número ilimitado de freqüências. Um som grave seria
representado por um ponto mais baixo da onda, enquanto um ponto mais alto representaria um
som agudo. O problema com esta representação, é que qualquer interferência causa distorções no
som. Se os computadores trabalhassem com dados analógicos, certamente seriam muito passíveis
de erros, pois qualquer interferência, por mínima que fosse, causaria alterações nos dados
processados e consequentemente nos resultados.
O sistema digital por sua vez, permite armazenar qualquer informação na forma de uma
seqüência de valores positivos e negativos, ou seja, na forma de uns e zeros. O número 181 por
exemplo, pode ser representado digitalmente como 10110101. Qualquer tipo de dado, seja um
texto, uma imagem, um vídeo, um programa, ou qualquer outra coisa, será processado e
armazenado na forma de uma grande seqüência de uns e zeros.
É justamente o uso do sistema binário que torna os computadores confiáveis, pois a possibilidade
de um valor 1 ser alterado para um valor 0, o oposto, é muito pequena. Lidando com apenas dois
valores diferentes, a velocidade de processamento também torna-se maior, devido à simplicidade

dos cálculos.
Cada valor binário é chamado de “bit”, contração de “binary digit” ou “dígito binário”. Um conjunto
de 8 bits forma um byte, e um conjunto de 1024 bytes forma um Kilobyte (ou Kbyte). O número
1024 foi escolhido pois é a potência de 2 mais próxima de 1000. Um conjunto de 1024 Kbytes
forma um Megabyte (1048576 bytes) e um conjunto de 1024 Megabytes forma um Gigabyte
(1073741824 bytes). Os próximos múltiplos são o Terabyte (1024 Gibabytes) e o Petabyte (1024
Terabytes)
Também usamos os termos Kbit, Megabit e Gigabit, para representar conjuntos de 1024 bits.
Como um byte corresponde a 8 bits, um Megabyte corresponde a 8 Megabits e assim por diante.
1 Bit = 1 ou 0
1 Byte = Um conjunto de 8 bits
1 Kbyte = 1024 bytes ou 8192 bits
1 Megabyte = 1024 Kbytes, 1.048.576 bytes ou 8.388.608 bits
1 Gigabyte = 1024 Megabytes, 1.048.576 Kbytes, 1.073.741.824 bytes ou
8.589.934.592 bits
Quando vamos abreviar, também existe diferença. Quando estamos falando de Kbytes ou
Megabytes, abreviamos respectivamente como KB e MB, sempre com o “B” maiúsculo. Quando
estamos falando de Kbits ou Megabits abreviamos da mesma forma, porém usando o “B”
minúsculo, “Kb”, “Mb” e assim por diante. Parece irrelevante, mas esta é uma fonte de muitas
confusões. Sempre que nos referimos à velocidade de uma rede de computadores, por exemplo,
não a medimos em bytes por segundo, e sim em bits por segundo: 10 megabits, 100 megabits e
assim por diante. Escrever “100 MB” neste caso, daria a entender que a rede transmite a 100
megabytes, que correspondem a 800 megabits.
Como tudo funciona
A arquitetura básica de qualquer computador completo, seja um PC, um Macintosh ou mesmo um
computador de grande porte, é formada por apenas 5 componentes básicos: processador,
memória RAM, disco rígido, dispositivos de entrada e saída e softwares.
O processador é o cérebro do sistema, encarregado de processar todas as informações. Porém,
apesar de toda sua sofisticação, o processador não pode fazer nada sozinho. Para termos um
computador funcional, precisamos de mais alguns componentes de apoio: memória, unidades de
disco, dispositivos de entrada e saída e finalmente, os programas a serem executados.
A memória principal, ou memória RAM, é usada pelo processador para armazenar os dados que
estão sendo processados, funcionando como uma espécie de mesa de trabalho. A quantidade de
memória RAM disponível, determina quais atividades o processador poderá executar. Um
engenheiro não pode desenhar a planta de um edifício sobre uma carteira de escola. Caso a
quantidade de memória RAM disponível seja insuficiente, o computador não será capaz de rodar
aplicativos mais complexos. O IBM PC original, lançado em 1981, por exemplo, possuía apenas 64
Kbytes de memória e por isso era capaz de executar apenas programas muito simples, baseados
em texto. Um PC atual possui bem mais memória: 64 MB, 128 MB ou mais, por isso é capaz de
executar programas complexos.
A memória RAM é capaz de responder às solicitações do processador numa velocidade muito alta.
Seria perfeita se não fossem dois problemas: o alto preço e o fato de ser volátil, ou seja, de perder
todos os dados gravados quando desligamos o micro.

Já que a memória RAM serve apenas como um rascunho, usamos um outro tipo de memória para
guardar arquivos e programas: a memória de massa. O principal dispositivo de memória de
massa é o disco rígido, onde ficam guardados programas e dados enquanto não estão em uso ou
quando o micro é desligado. Disquetes e CD-ROMs também são ilustres representantes desta
categoria de memória.
Para compreender a diferença entra a memória RAM e a memória de massa, você pode imaginar
uma lousa e uma estante cheia de livros com vários problemas a serem resolvidos. Depois de ler
nos livros (memória de massa) os problemas a serem resolvidos, o processador usaria a lousa (a
memória RAM) para resolvê-los. Assim que um problema é resolvido, o resultado é anotado no
livro, e a lousa é apagada para que um novo problema possa ser resolvido. Ambos os dispositivos
são igualmente necessários.
Os sistemas operacionais atuais, incluindo claro a família Windows, permitem ao processador usar
o disco rígido para gravar dados caso a memória RAM se esgote, recurso chamado de memória
virtual. Utilizando este recurso, mesmo que a memória RAM esteja completamente ocupada, o
programa será executado, porém muito lentamente, devido à lentidão do disco rígido.
Para permitir a comunicação entre o processador e os demais componentes do micro, assim como
entre o micro e o usuário, temos os dispositivos de I/O “input/output” ou “entrada e saída”.
Estes são os olhos, ouvidos e boca do processador, por onde ele recebe e transmite informações.
Existem duas categorias de dispositivos de entrada e saída:
A primeira é composta pelos dispositivos destinados a fazer a comunicação entre o usuário e o
micro. Nesta categoria podemos enquadrar o teclado, mouse, microfone, etc. (para a entrada de
dados), o monitor, impressoras, caixas de som, etc. (para a saída de dados).
A segunda categoria é destinada a permitir a comunicação entre o processador e os demais
componentes internos do micro, como a memória RAM e o disco rígido. Os dispositivos que fazem
parte desta categoria estão dispostos basicamente na placa mãe, e incluem controladores de
discos, controladores de memória, etc.
Como toda máquina, um computador, por mais avançado que seja, é burro; pois não é capaz de
raciocinar ou fazer nada sozinho. Ele precisa ser orientado a cada passo. É justamente aí que
entram os programas, ou softwares, que orientam o funcionamento dos componentes físicos do
micro, fazendo com que eles executem as mais variadas tarefas, de jogos à cálculos científicos.
Os programas instalados, determinam o que o micro “saberá” fazer. Se você quer ser um
engenheiro, primeiro precisará ir a faculdade e aprender a profissão. Com um micro não é tão
diferente assim, porém o “aprendizado” é não é feito através de uma faculdade, mas sim através
da instalação de um programa de engenharia, como o AutoCAD. Se você quer que o seu micro
seja capaz de desenhar, basta “ensiná-lo” através da instalação um programa de desenho, como o
Corel Draw! e assim por diante.
Toda a parte física do micro: processadores, memória, discos rígidos, monitores, enfim, tudo que
se pode tocar, é chamada de hardware, enquanto os programas e arquivos armazenados são
chamados de software.
Existem dois tipos de programas, chamados de software de alto nível, e software de baixo
nível. Estas designações não indicam o grau de sofisticação dos programas, mas sim com o seu
envolvimento com o Hardware.
O processador não é capaz de entender nada além de linguagem de máquina, instruções
relativamente simples, que ordenam a ele que execute operações matemáticas como soma e
multiplicação, além de algumas outras tarefas, como leitura e escrita de dados, comparação, etc.

Como é extremamente difícil e trabalhoso fazer com que o processador execute qualquer coisa
escrevendo programas diretamente em linguagem de máquina, usamos pequenos programas,
como o BIOS e os drivers de dispositivos do Windows para executar as tarefas mais básicas,
funcionando como intermediários, ou intérpretes, entre os demais programas e o hardware. Estes
programas são chamados de software de baixo nível. Todos os demais aplicativos, como
processadores de texto, planilhas, jogos, etc. rodam sobre estes programas residentes, não
precisando acessar diretamente ao hardware, sendo por isso chamados de softwares de alto nível.
É justamente por causa desta divisão que muitas vezes um novo dispositivo, uma placa de som
que acabou se ser “espetada” na placa mãe por exemplo, não funciona até que sejam instalados
os drivers que vem no CD ou disquetes que acompanham a placa. O Windows é capaz de perceber
a presença da nova placa, mas para usa-la, ele precisa do driver correto. O driver funciona como
uma espécie de intérprete, que converte os comandos usados pelo Windows nos comandos
entendidos pela placa e vice-versa.
O próprio Windows possui uma grande biblioteca de drivers, que permite instalar
automaticamente muita coisa, mas, muitos dispositivos, principalmente placas mais recentes,
lançadas depois da versão do Windows que estiver usando, não funcionarão adequadamente até
que sejam instalados os drivers corretos. Sem os drivers, é impossível fazer qualquer placa
funcionar, é como perder a chave do carro. Felizmente, hoje em dia é possível encontrar drivers
para praticamente qualquer tipo de placa, mesmo antiga, através dos sites dos fabricantes. Você
também encontrará vários links na sessão de drivers

Para instalar uma nova placa, o procedimento básico é sempre o mesmo. Depois de instalar
fisicamente a placa e ligar o PC, o Windows exibirá uma aviso de “novo Hardware encontrado”,
pedindo os drivers em seguida. Escolha a opção de procurar um driver para o dispositivo e mostre
a localização dos arquivos, seja uma pasta no CD-ROM, uma pasta do HD, um disquete, etc. Caso
tenha apontado os arquivos corretos, o Windows irá instala-los e o dispositivos passará a
funcionar.
Lembre-se que existem drivers específicos para cada sistema operacional. Se o modem tiver
apenas drivers para Windows 98 por exemplo, ele não funcionará no Linux, DOS ou outros
sistemas, a menos que o fabricante resolva disponibilizar novas versões do driver.
Continuando a explicação sobre software, não podemos nos esquecer do próprio sistema
operacional, que funciona como uma ponte entre o hardware e o usuário, automatizando o uso do
computador, e oferecendo uma base sólida apartir da qual os programas podem ser executados.
Continuando com os exemplos anteriores, o sistema operacional poderia ser definido como a
“personalidade” do micro. Um micro rodando o Linux por exemplo, dificilmente seria tão amigável
e fácil de operar quanto um outro micro rodando o Windows 98. Por outro lado, este último jamais
seria tão estável quanto um terceiro micro rodando o Windows 2000. As diferenças não param por
aí: Os programas desenvolvidos para rodar sobre um determinado sistema operacional quase
sempre são incompatíveis com outros. Uma versão do Corel Draw! desenvolvida para rodar sobre
o Windows 98, jamais rodaria sobre o Linux por exemplo, seria preciso reescrever todo o
programa, criando uma nova versão.
A interface dos vários sistemas operacionais também é diferente. No MS-DOS, por exemplo, temos
apenas um prompt de comando baseado em texto, enquanto no Windows temos uma interface
gráfica baseada em janelas.
Esta divisão visa facilitar o trabalho dos programadores, que podem se concentrar em desenvolver
aplicativos cada vez mais complexos, num espaço de tempo cada vez menor.
Fazer um programinha simples de controle de caixa em uma linguagem de baixo nível, como o
Assembler, por exemplo, tomaria pelo menos um dia inteiro de trabalho de um programador. Um

programa com as mesmas funções, feito em uma linguagem visual (ou de alto nível) como o
Visual Basic ou Delphi, tomaria bem menos tempo, e ainda por cima teria uma interface gráfica
muito mais bonita e amigável, já que muitas das funções usadas no programa já estariam
prontas.
Arquiteturas
Nos primórdios da informática, nas décadas de 50, 60 e 70, vários fabricantes diferentes
disputavam o mercado. Cada um desenvolvia seus próprios computadores, que eram
incompatíveis entre sí, tanto a nível de hardware, quanto a nível de software.
Apesar de executarem as mesmas operações básicas, praticamente tudo era diferente: Os
componentes de um não serviam em outro, os programas eram incompatíveis e, até mesmo as
linguagens de programação, eram diferentes.
Porém, com a popularização dos microcomputadores era inevitável uma padronização. No início da
década de 80, tínhamos basicamente apenas duas arquiteturas, ou “famílias” de computadores
pessoais diferentes: O PC, desenvolvido pela IBM, e o Macintosh, desenvolvido pela Apple.
Como era mais barato, o PC tornou-se mais popular, ficando o uso dos Macintoshs restrito a
nichos onde suas características peculiares o tornam mais atraente, como a edição de imagens ou
sons e editoração eletrônica.
Durante muito tempo, a própria Apple pareceu se conformar com a posição, lançando micros
voltados principalmente para o seguimento profissional. Atualmente, vemos uma aceitação maior
dos Macs, principalmente devido ao lançamento do iMac, mas os PCs ainda são a grande maioria.
Como os micros PC possuem uma arquitetura aberta, ou seja, a possibilidade de vários fabricantes
diferentes desenvolverem seus próprios componentes, baseados em padrões já definidos, temos
uma lista enorme de componentes compatíveis entre sí. Podemos escolher entre várias marcas e
modelos os componentes que melhor atendam nossas necessidades e montar nossa própria
configuração, assim como podemos escolher os materiais que serão usados para construir uma
casa. Também é possível melhorar posteriormente o micro montado através de upgrades,
trocando alguns componentes para melhorar seu desempenho.
Mesmo micros de grife, como os IBM, Compaq, Itautec, Dell, etc. também são micros montados,
já que quase todos os seus componentes são comprados de outros fabricantes. Temos, por
exemplo, um processador da Intel, um disco rígido da Quantum, uma placa mãe da Asus,
memórias da Kingstone, CD-ROM e drive de disquetes da Mitsumi, um monitor da LG, e por aí vai
:-) A diferença principal entre os micros montados e os micros de grife é que os últimos são
montados por grandes empresas e temos todo o suporte e garantia. Porém, adquirindo um micro
de grife, quase sempre pagamos mais caro e ao mesmo tempo não temos tanta liberdade para
configurar o micro a gosto.
Entretanto, o simples fato de comprar um micro de grife não é garantia de qualidade. Em geral
eles possuem uma qualidade bem superior à dos micros montados por lojas de informática por
exemplo. Porém, a necessidade de lançar micros de baixo custo, muitas vezes leva os grandes
fabricantes a lançarem verdadeiras bombas no mercado, usando componentes de baixíssima
qualidade. A lista é enorme, já tivemos casos de micros de grife que não traziam sequer memória
cache L2 (na época em que este ainda fazia parte da placa mãe). Pesquisando por aí, você irá
encontrar vários PCs de marcas conceituadas, usando placas PC-Chips, pouca memória RAM, etc.
“economias” que aumentam o lucro do integrador, deixando a bomba na mão do infeliz que
compra-los.

Os Componentes
Agora que você já entendeu o que se passa dentro do gabinete de um PC, que tal se
estudássemos a função dos seus principais componentes?
Você já deve estar familiarizado com a função do processador. Atualmente encontramos no
mercado vários processadores diferentes. Em ordem de evolução, podemos citar o 486, o Pentium,
o Pentium MMX, o K6, o K6-2, o Pentium II e o Celeron, o Pentium III, Duron e o Athlon.
Definimos o processador como o cérebro do micro. Pois bem, todo o cérebro precisa de um corpo,
que é justamente a placa mãe. Ela traz todos os componentes que permitem ao processador
comunicar-se com os demais periféricos, como discos rígidos, placas de vídeo, etc. Outra função
da placa mãe é acomodar e alimentar elétricamente o processador.
Cada processador precisa de uma placa mãe desenvolvida especialmente para ele pois, devido à
diferenças de arquitetura, os processadores possuem “necessidades” diferentes. Cada processador
possui um número diferente de contatos, ou terminais, opera usando uma voltagem diferente e
precisa de um conjunto de circuitos de apoio desenvolvidos especialmente para ele. O próprio
encaixe do processador muda de família para família. Você jamais poderá instalar um Athlon
numa placa mãe para Pentium III por exemplo.
Apesar das diferenças, normalmente as placas mãe são desenvolvidas para serem compatíveis
com mais de um processador. Uma placa mãe soquete 7 mais moderna, por exemplo, quase
sempre suportará desde um Pentium de 75 MHz até um K6-2 de 550 MHz, passando por
processadores Pentium MMX, K6 e Cyrix 6×86. Uma placa soquete 370 moderna por sua vez,
suporta processadores Celeron e Pentium III. Placas soquete A são compatíveis com os
processadores Athlon e Duron da AMD.
Mas a importância da placa mãe não para por aí. Ela determina quais componentes poderão ser
usados no micro (e consequentemente as possibilidades de upgrade) e influencia diretamente na
performance geral do equipamento. Com certeza, você não gostaria de gastar 200 ou 300 dólares
numa placa de vídeo de última geração, só para descobrir logo depois que não poderá instalá-la,
pois a placa mãe do seu micro não possui um slot AGP.

Para poder trabalhar, o processador precisa também de memória RAM, que é vendida na forma de
pequenas placas, chamadas de módulos de memória, que são encaixadas na placa mãe. Você

também ouvirá muito o termo “pente de memória” uma espécie de apelido, que surgiu por que os
contatos metálicos dos módulos lembram um pouco os dentes de um pente.
Todos os programas e arquivos são armazenados no disco rígido, também chamado de HD (Hard
Disk) ou Winchester. A capacidade do disco rígido, medida em Gigabytes, determina a quantidade
de arquivos e programas que será possível armazenar. O disco rígido também exerce uma grande
influência sobre a performance global do equipamento. O disco rígido é acomodado no gabinete e
ligado à placa mãe através de um cabo.

Outro componente essencial é o gabinete, a caixa de metal que acomoda e protege os frágeis
componentes internos do micro. O gabinete traz também a fonte de alimentação, responsável por
converter a corrente alternada da tomada (AC) em corrente contínua (DC) usada pelos
componentes eletrônicos. A fonte também serve para atenuar pequenas variações de tensão,
protegendo o equipamento.
A placa mãe, o processador, os módulos de memória e o disco rígido, são os quatro componentes
básicos do micro. Porém, por enquanto temos um equipamento “autista”, incapaz de receber ou
transmitir informações. Precisamos agora adicionar “sentidos” na forma de mais componentes. Os
essenciais são a placa de vídeo, que permite que o micro possa gerar imagens a serem mostradas
no monitor, teclado e mouse, que permitem ao usuário operar o micro.
Outros componentes permitem ampliar os recursos do micro, mas podem ser definidos como
opcionais, já que o computador pode funcionar sem eles:
O CD-ROM permite que o micro leia CDs com jogos ou programas. Caso o micro possua também
uma placa de som, você poderá ouvir também CDs de música. Existem também os drives de DVD,
que além de lerem CDs normais, lêem DVDs de programas ou filmes.
A placa de som permite que o micro gere sons, tocados por um par de caixas acústicas. A placa de
som também traz entrada para um microfone e para um joystick. Junto com um drive de CD-ROM,
a placa de som forma o chamado Kit multimídia.
O Fax-Modem permite a comunicação entre dois computadores usando um linha telefônica. Ele
permite a recepção e transmissão de faxes e o acesso à Internet. Hoje em dia, o Fax-Modem é um
componente praticamente obrigatório; afinal, um micro que não pode ser conectado à Internet
tem uma utilidade muito limitada.

Temos também o drive de disquetes, que apesar de ser um componente de baixa tecnologia,
ainda é necessário, pois os disquetes ainda são muito usados para transportar dados.
Além destes, temos uma gama enorme de acessórios: Impressoras, Scanners (que permitem
digitalizar imagens), câmeras fotográficas digitais (que ao invés de usarem negativos geram
imagens digitais), câmeras de vídeo conferência, placas de captura de vídeo e muitos outros.
Desktops, Notebooks, Handhelds e Palmtops
Durante a década de 70, os computadores eram classificados como computadores, minicomputadores
ou micro-computadores, de acordo com seu tamanho. Naquela época, “minicomputador”
era qualquer coisa do tamanho de um armário e os grandes computadores ocupavam
facilmente uma sala inteira.
Atualmente, os termos da moda são outros. Os computadores de mesa são chamados de
desktops. Os notebooks possuem os mesmos recursos dos micros de mesa, porém são mais
leves e consomem menos energia, visando aumentar a autonomia das baterias. Comparados com
os desktops, a vantagem dos notebooks é sua portabilidade e as desvantagens são os fatos de
serem mais caros, mais frágeis e menos confortáveis de usar. Os primeiros computadores
portáteis, lançados no início da década de 80 pesavam em média 12 quilos, enquanto os atuais
não costumam pesar mais do que 3 Kg. Para quem precisa de portabilidade, mas ao mesmo
tempo não abre mão de um micro com todos os recursos de um micro de mesa, os notebooks são
a solução mais acertada.

Porém, para quem precisa apenas de recursos mais básicos, como processamento de textos,
planilhas, agenda eletrônica ou apenas armazenar informações, os notebooks acabam sendo uma
solução cara e antiquada. Além do peso, temos uma autonomia relativamente baixa das baterias,
em geral 2 ou 3 horas, sem falar no tempo gasto para dar o boot e carregar o Windows toda vez
que o equipamento é ligado.
Apartir dos anos 90, tivemos a popularização de mais duas classes de computadores portáteis, os
handhelds e os palmtops. A idéia principal é criar aparelhos pequenos o suficiente para levar no

bolso, que sejam leves e consumam pouca energia, mas, ao mesmo tempo, capazes de executar
todas as funções básicas, como processamento de textos, planilhas, coleta de dados, acesso à
Internet, jogos, etc.
Os dois tipos de aparelho possuem conceitos bem diferentes. Os handhelds são uma espécie de
notebook em miniatura, com o mesmo desenho básico, com o teclado de um lado e a tela do
outro. Exemplos de handhelds são o Cassiopéia, HP 620, Psion Series 5 e Sharp HC-4600. Com
exceção do Psion, estes aparelhos utilizam o Windows CE, que é uma versão simplificada do
Windows 98, que apesar de não rodar os mesmos programas que temos nos micros de mesa,
possui versões compactas do Word, Excel e Power Point, além de permitir a instalação de
programas ou jogos desenvolvidos para ele.

Os palmtops por sua vez, são ainda mais compactos e não possuem teclado. O texto é ou digitado
sobre um teclado gráfico formado em parte da tela, ou então escrito à mão em um espaço
reservado. O exemplo mais famoso e bem sucedido de palmtop é o Palm Pilot da 3com, que utiliza
o PalmOS, um sistema operacional proprietário. O sucesso do Palm Pilot estimulou os
desenvolvedores a criar milhares de programas para ele, englobando praticamente todo o tipo de
aplicações, de cálculos científicos a jogos. Estima-se que em Dezembro de 2001 já existissem
mais de 75.000 programas, uma boa parte aplicativos freeware.
A Microsoft concorre com os Palms através do Pocket PC, uma versão reduzida do Windows que
roda em PCs de mesa. Em versões anteriores, este sistema era chamado de Windows CE. O nome
mudou apenas por questões de marketing.
Os Palmtops com o Pocket PC quase sempre trazem telas coloridas, processadores Arm de até 220
MHz, de 16 a 64 MB de memória, suporte a MP3, etc. configurações bem superiores às dos Palms
que trazem 2 ou 8 MB de memória, processadores DragonBall de 32 MHz e telas monocromáticas
na maioria dos modelos. Por outro lado, o Pocket PC também é um sistema muito mais pesado, o
que nivela o desempenho das duas classes.
Em todos os casos, é possível fazer a conexão com um micro de mesa para fazer backup das
informações gravadas, trocar arquivos e instalar novos programas.

aumenta. Os componentes são cada vez mais miniaturizados, o que traz como conseqüência um
ganho essencial no ramo dos portáteis: um consumo elétrico cada vez mais baixo.
Um 486 de 100 MHz processa 100 milhões de instruções por segundo e consome
aproximadamente 5 Watts de eletricidade. Um Mobile Pentium III de 500 MHz (a versão especial,
com um consumo elétrico ultra baixo) processa 1.5 bilhão de instruções, com apenas 3 watts. A
mesma proporção se mantém nos chips destinados a aparelhos portáteis.
Isto significa que os aparelhos portáteis são capazes de executar cada vez mais funções e rodar
aplicativos cada vez mais complexos. E esta é uma tendência que veio pra ficar.
Recentemente a Microsoft lançou uma versão do Windows destinada especialmente a micros de
mão e outros tipos de sistemas integrados, o Windows XP Embedded. O Linux pode ser facilmente
portado para várias arquiteturas e é o concorrente natural para o Windows também neste campo.
A diferença de recursos entre os PCs de mesa e um handheld está diminuindo rápido, embora a
diferença de preço também. Das agendas eletrônicas de 50 reais, saltamos para os iPaqs de 1500
reais.
Escolhendo a melhor configuração
Todos os componentes de um PC, influenciam diretamente no desempenho global da máquina.
Como num carro, onde um único componente de baixo desempenho afeta negativamente todo o
conjunto.
Apesar do desejo de todos ser um micro equipado com um processador topo de linha, muita
memória RAM, vários Gigabytes de espaço no disco rígido, placa de vídeo 3D, DVD, etc. Nem
todos estamos dispostos a gastar 2.000 ou 3.000 dólares numa configuração assim. Entra em
cena então o fator custo-beneficio: determinar qual configuração seria melhor dentro do que se
pode gastar. O objetivo deste trecho é justamente este, ajudá-lo a escolher a melhor configuração
em termos de custo-beneficio em cada caso. Para isto, estudaremos no que cada componente
afeta o desempenho e em quais aplicações cada um é mais importante.
A primeira coisa que deve ser levada em conta é a aplicação a que o micro será destinado, ou
seja: quais programas serão utilizados nele.
Um PC usado em um escritório, onde são usados o Word, Excel e Internet por exemplo, não
precisa de um processador muito poderoso, mas é indispensável uma quantidade pelo menos
razoável de memória RAM, e um disco rígido razoavelmente rápido. Enquanto que, num micro
destinado a jogos, o principal seria um processador rápido, combinado com uma boa placa de
vídeo 3D.
Escolhendo a placa mãe
A placa mãe é o componente que deve ser escolhido com mais cuidado. Uma placa mãe de baixa
qualidade colocará em risco tanto o desempenho quanto a confiabilidade do equipamento.
Ao comprar uma placa mãe, verifique quais processadores ela suporta, se possui um slot AGP e se
a quantidade de slots ISA e PCI é suficiente para a quantidade de periféricos que você pretende
instalar.

A questão mais importante é a qualidade da placa. Além dos recursos, este é o principal
diferencial entre as várias que você encontrará no mercado. Placas de baixa qualidade além de
prejudicarem o desempenho, podem tornar o micro instável, causando travamentos constantes no
Windows. Travamentos que freqüentemente são causados por falhas de hardware, e não por bugs
do programa.
Procure comprar placas de boas marcas, como Asus, Abit, Soyo e Supermicro. As placas da Intel
também são excelentes, mas preste atenção se a placa realmente foi fabricada pela Intel: muitos
vendedores vendem placas com chipsets Intel como “placas da Intel”. Muitos fabricantes usam
chipsets Intel em suas placas, mas isto não e garantia de qualidade. Não adianta uma placa de
segunda linha possuir um bom chipset.
Evite ao máximo comprar placas TX-Pro, VX-Pro, BX-Pro, SX-Pro, PC-100, Viagra, PC-Chips e
placas que não trazem especificado o nome do fabricante. Apesar de serem muito mais baratas, e
quase sempre trazerem placas de som, vídeo, modems e até placas de rede onboard, estas placas
invariavelmente são de baixa qualidade, fabricadas geralmente pela PC-Chips, especializada em
fabricar placas de baixíssimo custo mas de qualidade duvidosa.
Você pode perguntar por que estas placas são inferiores, já que muitas vezes usam o mesmo
chipset de placas de boas marcas. O diferencial é a qualidade da placa de circuito. Uma placa mãe
é confeccionada usando-se uma técnica chamada MPCB (multiple layer contact board) que
consiste em várias placas empilhadas como se fossem uma só. Acontece que uma placa de
circuitos deste tipo tem que ser projetada e fabricada minuciosamente, pois qualquer erro mínimo
na posição das trilhas, fará com que surjam interferências, que tornarão a placa instável. Isto
também prejudica o desempenho, impedindo que a comunicação entre os componentes seja feita
na velocidade normal. A diferença de desempenho de um micro montado com uma boa placa mãe,
para outro de configuração parecida, mas usando uma placa mãe de baixa qualidade pode chegar
a 20%. Equivaleria a trocar um Pentium II 800 por outro de 600 MHz!
A fim de cortar custos, diminui-se o tempo de desenvolvimento e se apela para técnicas mais
baratas e menos precisas de produção, criando os problemas que descrevi.
Certamente é tentador ver o anúncio de uma placa mãe que já vem com placa de som, placa de
vídeo e modem por 100 ou 120 dólares, enquanto uma placa de uma boa marca custa 150, 180
ou mesmo 200 dólares e muitas vezes não traz nenhum destes acessórios. Mas, lembre-se que
esta economia pode lhe trazer muita dor de cabeça, na forma de instabilidade, travamentos e
incompatibilidades. Estas placas podem até ser usadas em micros mais baratos, destinados a
aplicações leves, onde a economia é mais importante, mas não pense em usar uma em um micro
mais parrudo, pois não valerá à pena. Se o problema é dinheiro, prefira comprar um processador
mais simples e barato, mas colocá-lo em uma boa placa mãe.
Escolhendo os outros periféricos
Existem basicamente 4 determinantes de desempenho num micro: o processador, a quantidade de
memória RAM, a velocidade do disco rígido e a placa de vídeo. A importância de cada um varia de
acordo com a aplicação do micro.
Memória RAM
Se o micro possui pouca memória RAM, o processador terá que usar o disco rígido para guardar os

dados que deveriam ser armazenados na memória, tornando o sistema extremamente lento. Por
outro lado, instalar mais memória do que o necessário será apenas um desperdício, pois não
tornará o sistema mais rápido.
Você notará que é preciso instalar mais memória quando o micro começar a ficar lento e a acessar
intermitentemente o disco rígido em momentos de atividade mais intensa.
Se o usuário trabalha apenas com aplicativos mais leves, como Word, Excel, Internet e não
costuma abrir mais de um aplicativo ao mesmo tempo, 64 MB podem ser suficientes, apesar de
128 ser o ideal.
Se, por outro lado, são usados programas mais pesados ou se são abertos vários programas ao
mesmo tempo, então o mínimo seria 128 e o ideal 256 MB. 128 MB também são suficientes se o
micro se destina principalmente a jogos.
Caso o micro se destine ao processamento de imagens, vídeo ou editoração, então devem ser
usados pelo menos 192 MB. Dependendo do tamanho dos arquivos a serem processados, o ideal
pode subir para 256 ou mesmo 512 MB.
Hoje em dia os módulos de memória SDRAM (os usados na maioria dos PCs atuais) estão muito
baratos, por isso não vale mais à pena economizar em memória RAM. Mesmo que o PC se destine
a aplicativos leves, instale logo 256 ou mesmo 512 MB. É melhor pecar pelo excesso do que pela
falta.
Com mais memória o PC se manterá rápido por mais tempo. Não se esqueça que os programas
ficarão cada vez mais pesados com o passar do tempo. O que hoje pode até ser um desperdício,
amanhã será requisito mínimo para muitos sistemas.
A instalação de mais memória pode dar um novo ânimo a um micro mais antigo, principalmente
se o micro possui apenas 8 ou 16 MB. Mas não exagere, pois mesmo com muita memória será
difícil rodar aplicativos mais pesados devido à fragilidade do conjunto. O ideal seriam 16 megas
em micros 486 e de 32 a 64 MB em micros Pentium ou K6 de 100 a 166 MHz.
Processador
Nem sempre a instalação de um processador mais moderno torna o micro mais rápido. Muitas
vezes, aumentar a quantidade de memória ou trocar o disco rígido faz mais efeito. Como sempre,
depende da aplicação.
Caso o micro se destine principalmente a jogos, então vale à pena investir em um processador
topo de linha, como um Athlon ou um Pentium 4. Caso o micro de destine ao processamento de
imagens ou editoração, um processador topo de linha irá ajudar, mas apenas se o micro possuir
bastante memória RAM. Se o dinheiro estiver curto, é preferível comprar um processador médio,
como um Duron e investir em mais memória.
Finalmente, caso o micro se destine a aplicações leves, então o ideal será adquirir um processador
mais simples e investir a economia em um pouco mais de memória, um disco rígido melhor, ou
numa placa mãe de melhor qualidade.
Disco Rígido

O desempenho do disco rígido determina a velocidade em que serão abertos programas e
arquivos. Um disco rígido rápido, também ajuda caso o micro tenha pouca memória. Mesmo com
um processador parrudo e muita memória, tudo ficará lento caso o disco rígido não acompanhe.
Quase sempre, os discos rígidos de maior capacidade são mais rápidos, mas como sempre existem
exceções. Procure saber o tempo de acesso, a velocidade de rotação e a densidade do disco.
O tempo de acesso do disco varia geralmente entre 8 e 12 milessegundos, dependendo do HD. O
tempo de acesso determina quanto tempo a cabeça de leitura demorará para achar o dado a ser
lido. Um valor mais baixo corresponde a um melhor desempenho.
A velocidade de rotação é medida em RPMs, ou rotações por minuto. Quanto mais rápido o disco
girar, mais rápido um dado será encontrado. A densidade, ou quantos dados caberão em cada
disco também determina o desempenho, pois como os dados estarão mais próximos, serão
localizados mais rapidamente. Você saberá a densidade dividindo a capacidade total do disco
rígido pela quantidade de cabeças de leitura que ele possui (pois o disco possuirá um platter para
cada cabeça de leitura). Um disco de 6 GB, com 4 cabeças de leitura, por exemplo, possui
densidade de 1,5 GB por disco. Quanto maior a densidade melhor.
Placa de Vídeo
Como vimos, existem tanto placas de vídeo 2D, quanto placas de vídeo 3D. Caso o micro se
destine a jogos, ou processamento de imagens 3D (usando o 3D Studio por exemplo), é
indispensável o uso de uma placa de vídeo 3D, caso contrário o micro simplesmente não será
capaz de rodar o aplicativo ou ficará extremamente lento.
Se forem ser usados apenas aplicativos de escritório ou forem ser processadas imagens em 2D,
então uma placa de vídeo 3D não será necessária.
Existem tanto aceleradoras 3D, que devem ser usadas em conjunto com uma placa 2D comum
(Monster 1 e Monster 2 por exemplo), quanto placas Combo (as mais comuns), que desempenham
tanto as funções 3D quanto 2D (todas as placas atuais). Atualmente até mesmo as placas de
vídeo onboard estão vindo com recursos 3D, apesar do desempenho não se comparar com uma
placa mais parruda.
Modem
Atualmente, você só encontrará à venda modems de 56K, porém, encontrará tanto hardmodems
quanto softmodems. Os softmodems são os modems mais baratos, que costumam custar entre 20
e 40 dólares, porém tornam o micro mais lento (quanto mais potente for o processador menor
será a perda) e não se dão muito bem como jogos multiplayer jogados via modem ou com linhas
ruidosas. Os hardmodems, por sua vez, são os modems mais caros, que custam apartir de 80
dólares, mas executam eles mesmos todas as funções.
Placa de Som
A placa de som não influencia em nada o desempenho do micro, apenas determina a qualidade do
áudio. Para uso normal, uma placa de som simples como uma Sound Blaster 32, ou mesmo uma

daquelas placas “genéricas”, geralmente equipadas com chipsets Yamaha, dão conta do recado.
Placas mais caras farão diferença caso você pretenda trabalhar com edição musical, ou faça
questão de ouvir músicas em MIDI com o máximo de qualidade.
Existem também placas de som 3D, como a Turtle Beath Montego e a Sound Blaster Live, que
geram sons que parecem vir de todas as direções, mesmo usando caixas acústicas comuns. Este
efeito é muito interessante em jogos, pois oferece uma sensação de realidade muito maior.
Imagine ouvir o som de um tiro como se ele tivesse sido disparado por alguém que está bem atrás
de você.
Upgrades e atualizações
Fazer um upgrade, significa trocar alguns componentes de um micro já ultrapassado a fim de
melhorar seu desempenho. Porém, muitas vezes, o micro está tão desatualizado que seria preciso
trocar quase todos os componentes para conseguir atingir um desempenho aceitável. Neste caso,
compensaria mais vender o micro antigo e comprar um novo.
O segredo para realizar um bom upgrade, é detectar os “pontos fracos” da configuração,
componentes que possuem um desempenho muito inferior ao restante do conjunto. Para
exemplificar, analisarei agora algumas configurações:
Configuração 1:
Processador Pentium de 100 MHz
8 MB de memória RAM
HD de 1.2 GB
Placa de Vídeo de 1 MB
Monitor SVGA de 14 polegadas
Temos aqui um micro bem antigo, de configuração extremamente modesta, mas que tem um
grave ponto fraco: a pouca quantidade de memória RAM. O ideal aqui seria adicionar mais 32 MB
de memória, totalizando 40 MB, o que multiplicaria a velocidade do equipamento.
Também valeria à pena trocar o processador por um K6 ou Pentium de 200 MHz, já que neste
caso não precisaríamos trocar também a placa mãe.
Dois pentes de memória de 72 vias de 16 MB cada, e um processador de 200 MHz custam cerca
de 150 reais, que resultariam em um ganho de performance de pelo menos 300%. Note que neste
caso precisaríamos usar componentes usados. O disco rígido só deveria ser trocado caso o usuário
estivesse com problemas de espaço.
Configuração 2:
Pentium 233 MMX
32 MB de memória RAM
HD de 2.6 GB
Placa de vídeo de 2 MB
Monitor SVGA de 14 polegadas
Agora temos uma configuração equilibrada. As únicas mudanças viáveis seriam o aumento da
quantidade de memória para 64 MB ou a troca do disco rígido (caso o usuário esteja com
problemas de espaço).

Não seria uma boa idéia pensar em trocar o processador, pois para instalar um Pentium II,
Celeron, ou mesmo um K6-2 neste micro, teríamos que trocar também a placa mãe. Caso os
módulos de memória atuais sejam de 72 vias, o gasto seria ainda maior, já que as placas mãe
mais modernas possuem encaixes apenas para módulos de 168 vias o que nos obrigaria a trocar
também as memórias.
Caso o usuário do micro goste de jogos, ou pretenda trabalhar com imagens tridimensionais,
então uma placa de vídeo 3D, de um modelo mais simples, seria uma boa idéia.
Configuração 3:
Pentium II de 266 MHz
64 MB de memória RAM
HD de 2.2 GB
Placa de vídeo de 2 MB
Monitor SVGA de 15 polegadas
A primeira coisa a considerar neste exemplo seria a troca do processador por um Celeron de 500
ou 533 MHz, já que poderíamos trocar apenas o processador. Teríamos então um excelente
configuração, com exceção do disco rígido, muito pequeno e lento para um micro deste porte.
Seria uma boa idéia trocá-lo por um de 13 GB ou mais. Se fosse adicionada também uma placa de
vídeo 3D passaríamos então a ter praticamente um topo de linha. O aumento da quantidade de
memória para 128 MB deveria ser considerado caso o usuário tenha o hábito de trabalhar com
vários programas abertos ao mesmo tempo, ou tenha o hábito de abrir arquivos muito grandes.
As peças antigas, no caso o processador o disco rígido e a placa de vídeo poderiam ser vendidas
depois para cobrir parte do gasto do upgrade. Existe um mercado muito grande para discos rígidos
usados.
O melhor custo-beneficio
Simplesmente comprar o melhor micro que o dinheiro pode pagar, não é uma tarefa muito difícil,
basta comprar os melhores e em geral mais caros componentes, encher de memória RAM e voilà.
Porém, a não ser você seja algum milionário excêntrico, esta provavelmente não será uma boa
idéia. Você já deve ter percebido que no mundo da informática as coisas evoluem muito rápido. A
cada semana, novos componentes são lançados. Mas, prestando um pouco de atenção na ciranda
dos preços, você vai perceber duas coisas:
1- Em geral os fabricantes lançam novos componentes com pequenos avanços sobre os
anteriores, porém com um grande aumento de preço. No ramo dos processadores por exemplo, os
novos modelos são sempre apenas 33 ou 50 MHz mais rápidos que os anteriores. Na família
Pentium III, por exemplo, tivemos em menos de um ano, lançadas versões de 450, 500, 533, 550,
600, 650, 667, 700, 733, 750, 800 e 1000 MHz. Sempre que uma nova versão é lançada, as
anteriores caem de preço, e as muito antigas são retiradas do mercado. A diferença de preço entre
a versão topo de linha e a anterior, que é em geral apenas 5 ou 6% mais lenta, pode chegar a
quase 50%, e a diferença entre a versão mas rápida e a versão mais lenta encontrada à venda
(que em geral tem um desempenho apenas 35 ou 50% menor) pode ser de mais de 10 vezes! Por
exemplo, logo que o Pentium III de 1 GHz foi lançado, custava nos EUA, quase 1.000 dólares. Na
mesma época, as mesmas lojas (nos EUA), vendiam um Celeron de 500 MHz por cerca de apenas
50 dólares! No Brasil os preços claro são um pouco mais altos, mas a proporção é a mesma.

Em outras áreas, como no ramo de placas de vídeo 3D, a diferença não é tão gritante assim, mas
as placas topo de linha em geral custam 2 vezes mais do que as versões anteriores, sendo em
geral 25 ou 30% mais rápidas. No caso da memória RAM, não existe uma grande evolução em
termos de velocidade, porém muitas vezes é preciso trocar os módulos de memória ao atualizar
um sistema antigo, caso o sistema antigo utilize memórias de 72 vias por exemplo. No caso do
HD, o fator mais importante é a capacidade, mas o desempenho também é fundamental. Muitas
vezes um HD menor é muito mais rápido do que um de maior capacidade. No capítulo sobre HDs
você encontrará uma tabela comparativa entre os principais HDs à venda.
2- Nos últimos anos, os equipamentos evoluíram muito mas rapidamente do que os requisitos dos
programas. Ao contrário do que tínhamos a alguns anos atrás, um micro de dois anos atrás,
completamente ultrapassado pelos padrões atuais, pode rodar com desenvoltura quase todos os
aplicativos mais atuais. A menos que você trabalhe em uma área muito crítica em termos de
desempenho, como edição de vídeo por exemplo, muitas vezes você sequer notará muita
diferença entre o desempenho de um micro topo de linha e um equipamento um pouco mais
antigo, desde claro, que ambos estejam corretamente configurados.
Atualmente, temos apenas dois tipos de aplicativos que realmente utilizam todo o poder de
processamento de um micro topo de linha: aplicativos profissionais de renderização de imagens e
edição de vídeo e os jogos mais atuais. Isso não significa que estes aplicativos não rodem ou
fiquem muito lentos em um micro um pouco ultrapassado, mas que ficam mais rápidos, ou com
mais detalhes (no caso dos jogos) num micro topo de linha. Se vale à penas gastar duas vezes
mais num micro topo de linha para ter apenas um pouco mais de desempenho aí já é com você,
mas na minha opinião realmente não vale à pena, a menos que você realmente trabalhe com este
tipo de aplicativo, o que é raro.
Em aplicações mais leves, como processamento de textos, acesso à Internet, jogos um pouco mais
antigos (lançados a mais de 18 meses) e mesmo programas gráficos (com exceção apenas de
filtros e operações mais demoradas) a diferença para o usuário é mínima. Não se iluda muito com
os resultados mostrados nos benchmarks; qual seria a diferença, para você, se uma imagem
demorasse 2.5 segundos ao invés de apenas 1.5 segundos para ser aberta no Photoshop, ou se o
Word demorasse 0.5 segundo ao invés de apenas 0.35 segundo para abrir uma nova janela? Para
alguém que trabalha editando imagens e aplicado filtros e efeitos que muitas vezes demoram
horas para serem processados, talvez um ganho de 10 ou 15% de desempenho resultasse em um
grande ganho de produtividade, mas será que este é o seu caso?
Além de saber escolher os componentes com relação à qualidade, preocupe-se em se perguntar
“será que realmente vou precisar de tudo isso” quando for comprar um novo micro. Claro que não
vale à pena comprar um equipamento muito ultrapassado, mas também não vale à pena comprar
um topo de linha. O ponto ideal para você está em algum lugar destes dois extremos.
Benchmarks, medindo sem erros
Existem vários programas dedicados a medir a performance de um componente isolado, o HD por
exemplo, ou o desempenho do micro como um todo, neste caso simulando o trabalho de
programas do dia a dia.
Porém, é muito fácil forjar resultados, fazendo parecer que um produto é muito melhor do que o

do concorrente, mesmo sem distorcer os resultados obtidos pelo programa.
Em geral, um determinado componente, um processador por exemplo, mesmo que no geral seja
um pouco mais lento do que o do concorrente, sempre se sairá melhor do que ele em algumas
aplicações. Se for criado um programa de benchmark que privilegie estas operações que são
executadas mais rápido, temos o milagre de fazer um equipamento inferior parecer mais rápido.
No mundo capitalista, este tipo de estratégia, de divulgar as vantagens de um produto, ao mesmo
tempo que se esconde seus defeitos, é muito usada em todos os setores, não apenas no mundo da
informática. Por isso que em geral não se deve dar tanta atenção aos benchmarks divulgados
pelos próprios fabricantes. Muitos são honestos ao apresentar os resultados, mas outros não;
sempre nos deixando com o pé atras.
Mesmo em se tratando de testes feitos por pessoas bem intencionadas, sem nenhum tipo de
vínculo com os fabricantes, muitas vezes temos resultados errados, simplesmente por serem
usados programas de benchmark inadequados ou ultrapassados. Por exemplo, rodando o Norton
System Info para DOS, que é um benchmark bem antigo, em um Pentium de 200 MHz e em um
Pentium Pro também de 200 MHz, os resultados obtidos mostrarão o Pentium comum mais de
duas vezes mais rápido do que o Pentium Pro, quando na prática o Pentium Pro é muito mais
rápido. Usando o Wintune 97 em um Pentium MMX de 233 MHz e em um K6, também de 233
MHz, teremos resultados mostrando o K6 quase 50% mais rápido, quando na realidade os dois
processadores praticamente empatam. Estes são apenas dois exemplos de uma lista enorme.
Existem programas que realmente conseguem mostrar resultados bastante precisos. A Ziff Davis
por exemplo, desenvolve excelentes programas de bachmark para várias situações; para medir o
desempenho dentro de aplicativos de escritório, para medir o desempenho em gráficos 3D, etc.
Estes são os programas adotados nos testes da PC Magazine Americana, entre outras publicações.
Os programas da Ziff Davis podem ser encontrados em http://www.ziffdavis.com
Existem outros casos de bons programas claro, como por exemplo o BAPCo SYSMark,
SPECviewperf 6.1.1 entre outros.
A fim de medir corretamente a performance, é preciso executar testes relativamente demorados.
Esta é a principal diferença entre bons programas de benchmark e outros que mostram erros
gritantes, justamente o tempo do teste. Enquanto no Business Winstone da Ziff Davis, o teste
pode durar várias horas, no Wintune o teste dura poucos segundos. Em 99% dos casos, estes
testes rápidos são imprecisos.
Outro diferencial são as próprias configurações utilizadas para executar os testes. Para medir o
ganho de desempenho obtido na troca de um processador por outro ou de uma placa de vídeo por
outra, é preciso manter todos os demais componentes, drivers, mesma versão do sistema
operacional etc. mudando apenas o componente a ser testado. Caso contrário, outros
componentes contaminarão os resultados, tornando o teste impreciso. A simples troca do driver da
placa de vídeo entre os testes pode fazer um equipamento aparecer muito mais rápido ou lento
que o outro.
Naturalmente, é necessária também uma boa dose de bom senso e de conhecimento do quanto
cada componente utilizado influencia na performance de cada aplicativo. Por exemplo, certa vez vi
um teste feito por um site estrangeiro, que media a performance de vários processadores,
aplicando um filtro do Adobe Photoshop, chamado Gaussian Blur. Os resultados mostravam um
mero Celeron 450 quase 15% mais rápido do que um Pentium III de 600 MHz. Lógico que alguma
coisa tinha saído errado no teste. Vendo as configurações, foi fácil perceber que as máquinas
utilizadas no teste tinhas apenas 64 MB de memória RAM, enquanto o filtro utilizava arquivos de
imagem grandes, de 100 MB cada um. Como os micros não tinham memória suficiente, eram
obrigados a utilizar memória virtual para armazenar parte dos arquivos de imagem, fazendo com
que o desempenho do disco rígido contaminasse os resultados. No teste, o Celeron havia sido

equipado com um disco rígido mais rápido, heis o erro de configuração.
Moral da história: não acredite em todos os números que ver por aí. Lembre-se dos comerciais de
sabão em pó; nem sempre um produto é tão melhor que outro quanto parece; tudo depende das
condições onde os testes são realizados.
Tão importante quanto o programa de benchmark escolhido, são os conhecimentos da pessoa que
executar o teste, que deve ser capaz de escolher uma configuração ideal, eliminando qualquer
fator que possa contaminar os resultados.
Linguagens de programação
Os computadores são funcionários quase perfeitos. Fazem tudo o que mandamos, não reclamam,
não se importam de trabalhar até tarde da noite, não cobram hora extra nem tiram férias. Mas,
em compensação também não pensam. Para que façam qualquer coisa é preciso explicar tudo
com os mínimos detalhes e na língua deles.
Considerando que tudo o que os computadores conseguem entender são seqüências intermináveis
de números binários, fornecer estas “instruções” pode ser muito penoso para um ser humano.
Você consegue se imaginar lendo um manual de 5.000 páginas e decorando um a um centenas de
códigos binários que representam as instruções do processador?
Colocando a mão na massa
Mesmo com transístores de 0.13 mícron, mais de 30 milhões de transístores num único
processador e freqüências de operação acima de 1 GHz, os computadores ainda são
completamente incapazes de tomar sozinhos qualquer tipo de decisão, precisam ser orientados a
cada passo, afinal, são apenas máquinas.
Para conseguir que nossas máquinas burras possam fazer todas as coisas produtivas que vemos, é
preciso orientá-las através de softwares, que por sua vez são construídos usando alguma
linguagem de programação.
Um processador manipula apenas dados binários. Tantos os dados a serem acessados, quanto
cada uma das instruções que o processador é capaz de executar possuem um endereço binário
próprio. Se os programadores precisassem programar diretamente em binários, decorando
seqüências como 10111011101101101110110011001010 para cada instrução do processador e
para cada endereço de memória a ser acessado, provavelmente não teríamos mais
programadores… já estariam todos loucos :-)
Para facilitar as coisas, começaram a ser desenvolvidas as linguagens de programação, que
diferem na sintaxe e recursos, mas tem um ponto em comum, que é a existência de um
compilador. Seja programando em C, ou seja em Visual Basic, você usará um editor para escrever
seu programa, respeitando as regras da linguagem escolhida e em seguida rodará o programa
compilador, que interpretará os comandos que inclui no programa e os transformará em binários,
as instruções que são entendidas pelo processador. A vantagem é que você poderá trabalhar com
instruções como if, else, etc. além de todas as facilidades oferecidas pela linguagem ao invés de
gigantescos endereços binários. Sem dúvida muito mais simples.
Existem diversas linguagens de programação, meu objetivo é dar algumas noções básicas sobre
as peculiaridades e utilidade de cada uma:

Assembly
O Assembly foi provavelmente a primeira linguagem de programação da história, surgida na
década de 50, época em que os computadores ainda usavam válvulas. A idéia do assembly é usar
um comando em substituição a cada instrução de máquina.
No assembly, cada uma destas instruções, equivale a uma instrução do processador. Ao invés de
usar instruções como 10101011 você pode usar outras bem mais fáceis de entender e de
memorizar, como add, div, mul, and, or, not, etc. Você também pode criar variáveis, que são
pequenos espaços na memória RAM reservados para guardar algum tipo de dado, que o programa
precisará mais tarde. Você pode usar aquelas instruções que citei para lidar com elas. Por
exemplo, a instrução “add” faz com que o processador some duas variáveis; “add x, y” por
exemplo, soma os valores de x e y.
Apesar de ser exaustivamente trabalhoso, você pode perfeitamente desenvolver pequenos
programas em assembly, para isso só vai precisar de um compilador e bastante paciência para
aprender. Você pode baixar um gratuíto em http://www.web-sites.co.uk/nasm/ nesta mesma
página você vai encontrar alguns manuais que podem ajudar bastante.
O compilador transforma o código escrito em assembly em linguagem de máquina, que finalmente
poderá ser entendida pelo processador.
Existem também os decompiladores, que fazem o trabalho inverso, de transformar um programa
já compilado, em um código em linguagem assembly. Este recurso é chamado de engenharia
reversa. É assim que conseguem crackear programas, quebrar códigos de proteção (como o do
DVD), etc. Claro que para isso, é preciso alguém que conheça muito de assembly e que tenha
disposição para ficar estudando o código até encontrar o que procura.
Por causa desta característica de permitir trabalhar diretamente com as instruções do processador,
o assembly é chamado de linguagem de baixo nível. Existem também linguagens de alto nível,
como C++ ou Pascal, onde é possível usar várias funções já prontas ou mesmo linguagens visuais,
como o Visual Basic ou o Delphi, que são ainda mais fácies.
Como o compilador utiliza instruções específicas para o processador da máquina, é preciso
desenvolver uma versão diferente da linguagem para cada sistema onde se desejar usa-la.
Fortran
O Fortran foi uma das primeiras linguagens de alto nível da história. Enquanto o Assembly é
chamado de linguagem de baixo nível, por nele utilizarmos diretamente as instruções e endereços
do processador e memória, numa linguagem de alto nível temos várias funções prontas, o que
facilita muito a programação, mas em compensação torna em muitos casos o programa maior e
mais pesado, já que o compilador jamais conseguirá gerar um código tão otimizado quanto um
programador experiente conseguiria.
Fortran é a contração de “Formula Translator”. A primeira versão do Fortran foi criada no final da
década de 50, mas a linguagem começou a ser usada em larga escala apartir da metade da
década de 60, quando surgiram várias versões diferentes. Atualmente o Fortran é pouco usado.

Pascal
O Pascal é outra linguagem de alto nível, criada durante a década de 60. O Pascal é uma
linguagem bastante estruturada, com regras bastante rígidas, o que a torna difícil de usar. Apesar
de ter sido bastante usada até a década de 80, hoje em dia ela é usada apenas em alguns cursos
como ferramenta de aprendizado.
Cobol
Cobol significa “Common Business Oriented Language”. Esta linguagem foi desenvolvida no final
da década de 50, com o objetivo de ser uma plataforma de desenvolvimento para aplicações
bancárias e financeiras em geral. Comparado com o Pascal e o Assembly, comuns na época, o
Cobol é uma linguagem bastante amigável, o que garantiu uma grande aceitação. Até hoje esta
linguagem é usada em muitos sistemas bancários, o que explica a grande procura por
programadores experientes nesta linguagem na época do bug do ano 2000.
C
O C foi desenvolvido durante a década de 70, mas ainda é largamente utilizado. A grande
vantagem do C é permitir escrever tanto programas extremamente otimizados para a máquina,
como seria possível apenas em assembly, e ao mesmo tempo vir com várias funções prontas,
como uma linguagem de alto nível, que podem ser utilizadas quando não for necessário gerar um
código tão otimizado.
Esta flexibilidade, permitiu que o C fosse usado para desenvolver a maioria dos sistemas
operacionais, como o Unix, Linux e o próprio Windows. Usando o compilador adequado, o C pode
ser usado para desenvolver programas para várias plataformas diferentes.
C++
O C++ mantém os recursos do C original, mas traz muitos recursos novos, como recursos
orientados a objetos, sendo também bem mais fácil de utilizar. O C++ é bastante usado
atualmente para desenvolver muitos programas para várias plataformas.
Você pode baixar um compilador C/C++ gratuíto em http://www.delorie.com/djgpp/
O Linux conta com um grande número de ferramentas para desenvolvimento em C, como o EMacs,
o compilador GCC e até editores visuais, como o KDeveloper. Outro ponto forte é a fartura de
programas de código aberto, que representam uma fonte de aprendizado quase inesgotável. O
Linux é provavelmente o melhor lugar para aprender a programar em C.
Visual Basic
Por ser uma linguagem visual, o VB é extremamente fácil de usar, janelas, botões e muitas
funções já vem prontas, bastando ao programador usa-las em seus programas. O custo da

praticidade é o fato dos programas serem bem mais pesados do que equivalentes feitos em outras
linguagens, como em C e de rodarem apenas dentro do Windows
Delphi
O Delphi também é uma linguagem visual, baseada no Pascal. Hoje em dia, o Delphi divide com o
visual Basic a preferência da maioria dos programadores.
Apesar de também ter algumas deficiências, a opinião das maioria dos programadores é que de
uma forma geral, os programas escritos em Delphi são mais rápidos do que os desenvolvidos em
Visual Basic.
O Delphi possui uma versão for Linux, o Kylix, também desenvolvido pela Borland e gratuíto para
o desenvolvimento de softwares cobertos pela GNU. Os programas para Delphi 6 e Kylix rodam
nas duas plataformas, bastando que o código seja recompilado. O código desenvolvido em versões
anteriores precisa ser adaptado para rodar no Linux.
Naturalmente, além destas que citei, existem inúmeras outras linguagens, cada uma com seus
pontos fracos e fortes e determinada área onde é mais usada.
Redes
As redes são um campo cada vez mais importante ultimamente. Basta lembrar que a Internet, tão
essencial hoje em dia, nada mais é do que uma rede de computadores.
Existem várias arquiteturas de rede e novas são criadas a cada dia, mas felizmente, a tendência é
que sempre um único ou alguns poucos padrões sobrevivam em cada área.
O padrão Ethernet por exemplo se tornou quase onipresente nas redes cabeadas. Isso trouxe algo
muito positivo, que foi a facilidade em montar redes. Como todas as placas são compatíveis e os
cabos são padronizado, é muito fácil encontrar os componentes e o preço caiu muito.
Temos três padrões de redes Ethernet: de 10 megabits, 100 megabits e 1 gigabit. As placas são
intercompatíveis, mas ao combinar placas de velocidades diferentes, a rede passa a operar na
velocidade da placa mais lenta, a menos que você invista num switch, que é capaz de isolar as
transmissões, permitindo que cada placa opere na sua velocidade, sem prejudicar as demais.
Mas, afinal, o que é um switch?
Um switch é uma espécie de irmão mais velho do hub, os dois tem a mesma função, ou seja,
servir como um ponto central para a rede. Todas as placas de rede são ligadas ao hub ou switch e
é possível ligar vários hubs ou switchs entre sí caso necessário.
A diferença é que o hub apenas retransmite tudo o que recebe para todas as estações. Isto
significa que apenas uma pode falar de cada vez e que todas precisam operar na mesma
velocidade (sempre nivelada por baixo). Isto funciona bem em pequenas redes, mas confirme o
número de PCs aumenta, o desempenho diminui rapidamente.
Surgem então os switchs, aparelhos mais inteligentes, que são capazes de estabelecer ligações
apenas entre o emissor e o destinatário da transmissão. Isso permite que várias transmissões
sejam feitas ao mesmo tempo (entre PCs diferentes naturalmente) e cada placa pode operar na

sua velocidade máxima. Usando switch o desempenho da rede se mantém com um número muito
maior de estações.
Os hubs são atualmente muito baratos, entre 60 e 200 reais, mas o switchs podem ser muito mais
caros, chegando facilmente aos 500 reais.
Finalmente, temos os roteadores, que são o topo da cadeia evolutiva. Os roteadores são ainda
mais inteligentes, pois são capazes de interligar várias redes diferentes e sempre escolher a rota
mais rápida para cada pacote de dados. Os roteadores podem ser desde um PCs comuns, com
duas ou mais placas de rede até supercomputadores capazes de gerenciar milhares de links de
alta velocidade. Os roteadores formam a espinha dorsal da Internet.
Finalmente, temos as redes sem fio, que estão em rápida ascensão, lideradas pelas placas
802.11b.
Isso mesmo, “802.11b”. esqueceram de inventar um nome mais familiar para o padrão, mas
enfim, o que importa é o que ele faz, não é mesmo? :-)
Os transmissores 802.11b são bastante compactos, a ponto de caberem num cartão PC-Card, que
pode ser instalado em qualquer notebook. Existem ainda placas para micros de mesa, assim como
adaptadores, que permitem usar os cartões em micros de mesa.
Ao invés do Hub temos o ponto de acesso, que é capaz de centralizar as transmissões de dados de
algumas dezenas de estações.

A velocidade é de 11 megabit, um pouco mais que as redes Ethernet de 10 megabits e o alcance
varia entre 15 e 100 metros, dependendo dos obstáculos. A grandes distâncias o sinal se degrada
e a velocidade de transmissão diminui, até o sinal se perder completamente.
Além dos notebooks, as interfaces 802.11b podem ser usadas em alguns handhelds e tem tudo
para se tornarem cada vez mais populares.
Os pontos de acesso quase sempre podem ser conectados a uma rede Ethernet já existente,
unificando as duas redes. Isto permite que num escritório você possa ligar os desktops usando
uma rede Ethernet convencional, que é mais rápida e mais barata e usar a rede sem fio apenas
para os notebooks.

Além dos componentes físicos da rede serem quase sempre intercompatíveis, os sistemas
operacionais atualmente também são.
Com um pouco de conhecimento de causa, você não terá maiores problemas para interligar um PC
rodando Windows, outro rodando Linux e um Macintosh na mesma rede, trocar arquivos e
compartilhar a conexão com a Internet entre eles.
Alguns termos que você precisa ter em mente:
TCP/IP – É o principal protocolo de rede, usado na Internet e na grande mairia das rede locais. O
protocolo é justamente a língua universal que permitem que vários sistemas diferentes possam
conversar.
ICS – É o programa, presente no Windows 98 SE, Windows ME, Windows 2000 e Windows XP que
permite compartilhar a conexão com a Internet. Os clientes podem rodar Linux, Mac OS ou vários
outros sistemas, pois tudo é feito via TCP/IP, que é universal.
Samba – Este é o software que permite compartilhar arquivos entre máquinas Linux e Windows.
Roda no Linux.
Compartilhamento – Seja no Windows ou no Linux, tudo que for ser acessado por outros micros
da rede é chamado de compartilhamento. Você pode compartilhar arquivos (pastas, ou até mesmo
o HD inteiro), CD-ROM, Impressora, etc. Da até para usar o PC remotamente, através do VNC.

Hoje em dia, quando ouvimos falar em processadores de 1 GHz dá até sono, de tão comuns que
eles já se tornaram. Pouca gente já ouviu falar no 8088, que foi o processador usado no PC XT, a
quase 20 anos atrás, e muito menos no Intel 4004, o primeiro microprocessador, lançado em 71.
Nas próximas páginas falarei sobre os processadores e computadores que fizeram parte da
história, começando não apartir da década de 70 ou 80, mas no século XIX. Sim, na época dos
nossos bisavós os computadores já existiam, apesar de extremamente rudimentares. Eram os
computadores mecânicos, que realizavam cálculos através de um sistema de engrenagens,
acionado por uma manivela ou outro sistema mecânico qualquer. Este tipo de sistema, comum na
forma de caixas registradoras era bastante utilizado naquela época.
No final do século XIX surgiu o relê, um dispositivo eletromecânico, formado por um magneto
móvel, que se deslocava unindo dois contatos metálicos. O Relê foi muito usado no sistema
telefônico, aliás algumas centrais analógicas ainda utilizam estes dispositivos até hoje. Os relês
podem ser considerados uma espécie de antepassados dos transístores. Suas limitações eram o
fato de serem relativamente caros, grandes demais e ao mesmo tempo muito lentos: um relê
demora mais de um milésimo de segundo para fechar um circuito.
Também no final do século XIX, surgiram as primeiras válvulas. As válvulas foram usadas para
criar os primeiros computadores eletrônicos, na década de 40.
As válvulas tem seu funcionamento baseado no fluxo de elétrons no vácuo. Tudo começou numa
certa tarde quando Thomas Edison, inventor da lâmpada elétrica estava brincando com a sua
invenção. Ele percebeu que ao ligar a lâmpada ao polo positivo de uma bateria e uma placa
metálica ao polo negativo, era possível medir uma certa corrente fluindo do filamento da lâmpada
à chapa metálica, mesmo que os dois estivessem isolados. Havia sido descoberto o efeito
termoiônico, o princípio de funcionamento das válvulas.
As válvulas já eram bem mais rápidas que os relês, atingiam frequências de alguns Megahertz, o
problema é que esquentavam demais, consumiam muita eletricidade e se queimavam com
facilidade. Era fácil usar válvulas em rádios, que usavam poucas, mas construir um computador,
que usava milhares delas era extremamente complicado, e caro.
Apesar de tudo isso, os primeiros computadores começaram a surgir durante a década de 40,
naturalmente com propósitos militares. Os principais usos eram a codificação e decodificação de
mensagens e cálculos de artilharia.
Sem dúvida, o computador mais famoso daquela época foi o ENIAC (Electronic Numerical
Integrator Analyzer and Computer), construído em 1945. O ENIAC era composto por nada menos
do que 17,468 válvulas, ocupando um galpão imenso. Porém, apesar do tamanho, o poder de
processamento do ENIAC é ridículo para os padrões atuais, suficiente para processar apenas 5.000
adições, 357 multiplicações e 38 divisões por segundo, bem menos até do que uma calculadora de

bolso atual, das mais simples.
A idéia era construir um computador para realizar vários tipos de cálculos de artilharia para ajudar
as tropas aliadas durante a segunda Guerra mundial. Porém, o ENIAC acabou sendo terminado
exatos 3 meses depois do final da Guerra e acabou sendo usado durante a guerra fria,
contribuindo por exemplo no projeto da bomba de Hidrogênio.

Se você acha que programar em C ou em Assembly é complicado, imagine como era a vida dos
programadores daquela época. A programação do ENIAC era feita através de 6.000 chaves
manuais. A cada novo cálculo, era preciso reprogramar várias destas chaves. Isso sem falar no
resultado, que era dado de forma binária através de um conjunto de luzes. Não é à toa que a
maior parte dos programadores da época eram mulheres, só mesmo elas para ter a paciência
necessária para programar e reprogramar esse emaranhado de chaves várias vezes ao dia.

Vendo essa foto é fácil imaginar por que as válvulas eram tão problemáticas e caras: elas eram
simplesmente complexas demais.
Mesmo assim, na época a maior parte da indústria continuou trabalhando no aperfeiçoamento das
válvulas, obtendo modelos menores e mais confiáveis. Porém, vários pesquisadores, começaram a
procurar alternativas menos problemáticas.
Várias destas pesquisas tinha como objetivo a pesquisa de novos materiais, tanto condutores,
quanto isolantes. Os pesquisadores começaram então a descobrir que alguns materiais não se
enquadravam nem em um grupo nem no outro, pois de acordo com a circunstância, podiam atuar
tanto quando isolantes quanto como condutores, formando uma espécie de grupo intermediário
que foi logo apelidado de grupo dos semicondutores.
Haviam encontrado a chave para desenvolver o transístor. O primeiro projeto surgiu em 16 de
Dezembro de 47, onde era usado um pequeno bloco de germânio (que na época era junto com o
silício o semicondutor mais pesquisado) e três filamentos de ouro. Um filamento era o polo
positivo, o outro o polo negativo, enquanto o terceiro tinha a função de controle. Tendo apenas
uma carga elétrica no polo positivo, nada acontecia, o germânio atuava como um isolante,
bloqueando a corrente. Porém, quando uma certa tensão elétrica era aplicada usando o filamento
de controle, uma fenômeno acontecia e a carga elétrica passava a fluir para o polo negativo.

CONTINUA NA APOSTILA…………..