domingo, 23 de agosto de 2009

LIBERE 20% DA SUA BANDA DE INTERNET

Há um recurso no Windows XP, chamado "Agendador de pacotes QoS", que reserva 20% da banda disponível de rede
e Internet para uso próprio. Para desabilitá-lo é necessário estar logado como Administrador e executar os seguintes
passos: :arrow: Vá em Iniciar / Executar e digite gpedit.msc e pressione OK. Após isso, :arrow: vá em Configuração do computador /
Modelos Administrativos / Rede e selecione na janela da esquerda Agendador de pacotes QoS. Na janela da direita, :arrow: dê
duplo-clique em Limite de reserva de banda. :arrow: Depois, vá na aba Configuração e selecione Ativado. Na linha Limitar %
da banda, digite 0 (zero). :arrow: Clique em Aplicar e em OK. :arrow: Agora vá ao Painel de Controle /Conexões de Rede, clique com
o botão direito na conexão existente e selecione Propriedades. Na aba Geral, habilite o Agendador de Pacotes QoS.
Se já estiver habilitado, deixe-o assim. :arrow: O último passo é reiniciar o computador. Se houver mais de um computador em
rede, é preciso seguir este procedimento em todos para que haja um real benefício desta dica.

José Joaquim jjsound45@hotmail.com

SAIBA PARA QUE SERVEM OS NOBREAKS

A função básica de qualquer nobreak é manter o PC funcionando em caso de falta de energia, permitindo que você tenha algum tempo para terminar o que está fazendo e evitando perda de dados.
Existem vários tipos de nobreaks. Os mais comuns no mercado são os offline e os line-interactive. Existem alguns nobreaks online, geralmente modelos bem mais caros, destinados a uso industrial ou em data-centers, além dos line-boost, que incorporam uma espécie de estabilizador interno.
Entre os quatro tipos, os nobreaks online (também chamados de "duble-conversion", ou conversão dupla) são os mais seguros. Neles, as baterias são carregadas de forma contínua e o inversor fica constantemente ligado, retirando energia das baterias e fornecendo aos equipamentos. Este layout faz com que os equipamentos fiquem realmente isolados da rede elétrica, com os circuitos de entrada e as baterias absorvendo todas as variações. O problema é que os nobreaks online são muito caros e, por isso, pouco comuns, reservados a servidores e aplicações industriais.

Além da questão do preço, os nobreaks online possuem uma baixa eficiência energética, devido à dupla conversão realizada. A maioria dos modelos trabalham com 70 a 80% de eficiência, o que significa que para cada 800 watts consumidos pelos equipamentos, o nobreak desperdiça pelo menos mais 200 na forma de calor. Por causa disso, os nobreaks online são quase sempre relativamente grandes (os modelos de 2000 VA são geralmente do tamanho de um PC) e utilizam exaustores para dissipar o calor. Veja que devido ao grande aumento no consumo, o custo real de manter um nobreak online (incluído o gasto com eletricidade) acaba indo muito além do custo inicial do equipamento.

Para melhorar a eficiência, muitos fabricantes utilizam layouts híbridos (chamados geralmente de "double conversion on demand"), onde um circuito monitora a corrente da tomada e chaveia rapidamente para o modo de operação online apenas quando ela apresenta variações ou um nível de ruído acima de um valor estipulado. Este modo de operação é muito comum em nobreaks para servidores, já que oferece um bom nível de proteção e desperdiça menos energia.

Em seguida temos os nobreaks offline (ou standby), que são a alternativa mais antiga e barata aos online. Neles, a corrente elétrica é filtrada e entregue diretamente aos equipamentos, como faria um filtro de linha (ou um estabilizador, caso o fabricante resolva incluir também o seletor de tensão).
Paralelamente, temos as baterias e o inversor, que assume rapidamente em caso de queda na rede. O circuito responsável pelo chaveamento demora alguns milésimos de segundo (a maioria dos modelos atuais trabalham na faixa dos 2 a 5 ms, mas alguns chegam a demorar 8 ms ou mais) para perceber a queda na rede e acionar o inversor, por isso existe uma breve interrupção no fornecimento aos equipamentos, que acaba passando despercebida graças aos circuitos da fonte de alimentação.

Os seguintes na lista são modelos line-interactive, que são uma evolução dos offline. Neles, o inversor também assume apenas quando existe falha na rede elétrica; a diferença é que o inversor fica ligado continuamente e um circuito de monitoramento se encarrega de monitorar a tensão e usar energia do inversor em caso de queda na tensão.
Caso ocorra um brownout e a tensão caia em 10%, por exemplo, o circuito repõe os mesmos 10% usando energia do inversor, de forma que os aparelhos recebem sempre uma tensão de 115V. Os nobreaks line-interactive utilizam as baterias de uma forma muito mais ágil que os offline e são mais confiáveis. O problema é que eles também desperdiçam mais energia, já que o inversor precisa ficar continuamente acionado.

Atualmente, existe uma quarta categoria, que são os nobreaks line-boost, que são uma versão popular dos line-interactive. Em vez de manterem o inversor continuamente ativo, a postos para compensar variações na rede elétrica, eles utilizam um transformador auxiliar, que aumenta a tensão em um valor fixo (geralmente 12%) quando usado. Se a tensão cai de 127V para 106V, por exemplo, o transformador entra em cena, aumentando a tensão em 12%, atenuando a redução e fazendo com que os equipamentos recebam 119V. A função desse sistema é evitar que o nobreak precise chavear para as baterias durante brownouts, preservando a carga para quando elas forem realmente necessárias.

Caso a tensão caia abaixo de um certo limite, o inversor é acionado e finalmente passam a ser usadas as baterias. Muitos modelos utilizam transformadores com vários estágios (2, 3, ou até mesmo 4), oferecendo atenuações bem mais suaves.
A tecnologia line-boost é muito mais barata que a line-interactive, por isso os fabricantes passaram a usá-la na maioria dos modelos. Embora eles também sejam chamados de "line-interactive", "interativo" ou até mesmo de "nobreak com regulação online" (note o jogo de palavras, com o uso da palavra "regulação" combinada com o termo "online" para dar a entender de que se trata de um nobreak online), eles são diferentes dos online ou line-interactive "de verdade".

Atualmente, quase todos os modelos de nobreaks baratos, destinados ao mercado doméstico, são line-boost ou offline. O uso de microprocessadores e melhorias nos projetos fizeram com que eles se tornassem bem mais confiáveis que os modelos antigos, reduzindo muito a diferença na prática.

O acionamento do inversor se tornou mais rápido (menos de 1 ms em alguns modelos, o que é bem pouco, considerando que rede elétrica no Brasil trabalha a uma frequência de 60 Hz, o que corresponde a 13.3 ms por ciclo) e o uso de capacitores e outros circuitos reduzem o tempo de queda na energia a quase zero.
A eficiência também melhorou bastante. Muitos modelos atuais trabalham com 95% de eficiência (ou seja, para cada 300 watts de carga, o nobreak desperdiça apenas 16). Isso faz com que hoje em dia a escolha sobre qual nobreak comprar recaia mais sobre a marca, modelo e qualidade geral e não sobre a tecnologia usada.

Embora qualquer bom nobreak inclua também um conjunto básico de componentes de proteção, ele não é mais eficiente na tarefa de proteger o PC do que um bom filtro de linha ou DPS. A função primária do nobreak não é proteger o PC, mas sim servir como uma bateria de backup, mantendo o PC ligado por algum tempo durante as quedas de luz, para que você tenha chance de salvar seus trabalhos. Se você mora em uma região onde as quedas são frequentes, ou se o PC é usado para trabalhos importantes, então o nobreak é um acessório mais do que recomendável; caso contrário, você pode perfeitamente passar sem ele.

Mais recentemente, tivemos o aparecimento de alguns modelos de nobreaks de baixo custo, com capacidades a partir de 300 VA, que combinam as funções de filtro de linha, com uma pequena bateria de backup, que oferece uma autonomia de poucos minutos. Eles estão na base da base da pirâmide, mas são baratos e por isso não são de todo ruins se você souber lidar com as limitações.
Um bom exemplo é o APC BE350G-LM, que tem uma capacidade de 350 VA (suficiente para um PC de baixo consumo e um LCD de 17", sem muitos periféricos adicionais), com uma bateria de apenas 3 Ah (12V), que é suficiente para apenas 5 minutos com 100 watts de carga.

Ele é um nobreak offline típico, que não tenta estabilizar a tensão de saída. Embora o tempo de chaveamento seja longo e a capacidade muito baixa, ele tem uma pequena vantagem, que é o fato de desperdiçar pouca energia. Isso faz com que (considerando o preço baixo) ele não seja uma opção ruim para quem quer apenas um filtro de linha com uma bateria de backup para evitar que o micro desligue com qualquer piscada de luz:
Formato de saída de onda: Outra característica importante é o formato de saída de onda do inversor. Quando o nobreak usa as baterias, o inversor precisa transformar a corrente contínua das baterias em corrente alternada. Basicamente, a corrente contínua é uma linha reta e constante, enquanto a corrente alternada é uma onda analógica que oscila 60 vezes por segundo (60 Hz).

Os nobreaks mais baratos ou antigos utilizam inversores que geram ondas quadradas (procure referências a "square wave" nas especificações), onde a tensão varia de forma abrupta. Eles são um pouco perigosos, pois podem danificar aparelhos sensíveis ou até mesmo a própria fonte de alimentação do micro se as quedas de energia (e consequentemente o uso do inversor) forem frequentes.
Os modelos baratos mais recentes utilizam ondas senoidais por aproximação (nas especificações você encontrará termos como "pseudo-sine wave", "modified square wave", "near sine wave" ou "stepped sine wave"), que são um meio termo, onde as variações são feitas em intervalos maiores (evitando as variações súbitas das ondas quadradas), oferecendo algo mais próximo a uma onda analógica.
Finalmente, temos os modelos mais caros, que geram ondas senoidais "puras" ("sine wave" ou "pure sine wave"), ou seja, virtualmente idênticas às fornecidas pela rede elétrica. Estes são naturalmente os melhores dentro do quesito.

Note que não existe uma relação direta entre a tecnologia usada (offline, online, etc.) e o formato de onda usado pelo inversor. Entretanto, como os inversores que geram ondas senoidais são mais caros, eles acabam sendo usados apenas nos modelos premium, que naturalmente utilizam tecnologias melhores. Você nunca encontraria um nobreak online para uso industrial com um inversor barato gerando ondas quadradas.

Nobreaks e estabilizadores: Uma observação é que você nunca deve usar um estabilizador entre o nobreak e o PC, pois os estabilizadores são feitos para receberem ondas senoidais. Ao receber as ondas quadradas geradas por um nobreak barato, o estabilizador vai aquecer e desperdiçar energia tentando retificar as ondas. Em casos mais extremos, ele pode até mesmo queimar e/ou danificar os equipamentos ligados a ele. Este é mais um motivo para substituir os estabilizadores por filtros de linha, já que o filtro não tem problema algum em trabalhar em conjunto com o nobreak.

É até possível usar um estabilizador em conjunto com um nobreak, desde que o estabilizador fique entre o nobreak e a tomada, e não o contrário. As duas grandes desvantagens de fazer isso é que você aumenta o desperdício de energia, (já que são somadas as perdas causadas pelo nobreak e as causadas pelo estabilizador, o que pode representar um aumento perceptível no consumo geral do equipamento) e que o nobreak passa a ser acoçado pelos picos e variações de tensão introduzidas pelo estabilizador, o que não é muito saudável.
Além disso, antes de ligar o nobreak no estabilizador, é importante checar as capacidades de fornecimento. Para usar um nobreak de 600 VA, seria necessário usar um estabilizador de 800 VA ou mais. Esta margem de segurança é necessária por dois fatores: o primeiro é que a eficiência do nobreak gira em torno de 90 a 95%, o que significa que ao fornecer 600 VA para o micro, ele vai consumir 630 ou 660 VA no total. O segundo fator é que o nobreak precisa recarregar a bateria depois que ela é usada, o que aumenta seu consumo em 15% ou mais. Se a capacidade do estabilizador for igual ou menor que a do nobreak, ele vai acabar desligando ou explodindo ao exceder a capacidade.

Devido a tudo isso, o uso de estabilizadores, módulos isoladores ou qualquer outro tipo de dispositivo ativo em conjunto com o nobreak não é recomendável. Se a ideia é proteger o nobreak, o correto é utilizar um bom filtro de linha ou DPS, que é um dispositivo passivo.
Presente de grego: Uma última observação sobre os nobreaks, esta mais uma curiosidade, é que boa parte do trabalho do nobreak consiste em transformar os 12V CC da bateria nos 115V AC que são fornecidos aos equipamentos. Este seria apenas um detalhe técnico, não fosse o fato de que a fonte de alimentação faz exatamente o trabalho inverso, convertendo de volta os 115V AC nos 12V CC que são fornecidos aos componentes!

Como pode imaginar, essa dupla conversão faz com que uma grande parte da energia das baterias seja desperdiçada, transformada em calor e não em trabalho útil. Seria bem mais eficiente se as próprias fontes de alimentação incorporassem baterias de backup (você poderia imaginar uma bateria de nobreak de 7.2 Ah incorporada diretamente à fonte, ou ligada a ela através de um cabo externo) eliminando a necessidade de usar o nobreak.
Como os 12V da bateria correspondem aos mesmos 12V que são fornecidos pelo transformador de saída (no secundário da fonte), seriam necessários poucos circuitos adicionais para monitorar a tensão da tomada e chavear para a bateria em caso de queda. Infelizmente nenhum fabricante ainda teve essa ideia, talvez esta seja uma boa oportunidade de ficar rico.

COMO RETIRAR O VERMELHO DOS OLHOS DAS FOTOS QUE VOCÊ TIROU?

Como evitar o efeito "olhos vermelhos" em suas fotos

Para entender como ocorre o efeito: quando há baixa intensidade da luz, a pupila, humana e animal, se dilata para enxergar melhor nessas condições. No momento da foto nesse ambiente, as pessoas e animais são flagradas com as pupilas muito abertas.A câmera registra o reflexo do flash no fundo do olho, no caso dos humanos a cor vermelha, no dos animais, geralmente um azul esverdeado.Quando o ambiente está iluminado isso não acontece, pois as pupilas estão contraídas, e é justamente o ambiente que deve ser proporcionado. A noite acenda todas as luzes que puder.Sempre que possível use luz natural ou diminua a velocidade do obturador, ou ainda, use uma sensibilidade maior de ISO para evitar que o flash seja acionado.O modo “olhos vermelhos” de sua câmera, geralmente indicado por um símbolo de um olho, pode ajudar mas não resolve. Ele dispara rapidamente o flash algumas vezes antes de tirar a foto. Como a foto não é tirada no primeiro disparo, mantenha a mão firme e informe ao seu objeto que não se mova até você ter certeza de que a foi tirada.A diferença entre os níveis de luz entre o flash e a luz ambiente e o ângulo entre a luz e a câmera são grandes problemas. Se você conseguir evitar que a luz incida diretamente sobre os olhos do seu objeto você ganha.Tente combinar com seu objeto para ele não olhar diretamente para a câmera. Quanto maior for o ângulo entre o objeto e a lente, menor as chances do objeto sair com olhos vermelhos. Você ainda terá excelentes fotos com aparência de espontâneas.Usar um filtro polarizador também pode ajudar a diminuir os reflexos.Se sua câmera permitir retire o flash. Isso retira a luz do flash da linha da lente e é possível eliminar o efeito olhos vermelhos.Bom também seria segurá-lo com a mão através de um cabo de extensão. Remeter a luz do flash em uma parede ou teto faria efeitos legais em suas fotos.Mesmo assim algumas fotos ainda terão olhos vermelhos e ai a única opção será usar os recursos dos editores de imagem.

MONITORES LCD

Cada vez mais populares, os monitores LCD (Liquid Crystal Display - Monitores de Cristal Líquido) já são considerados por muitos indispensáveis ao uso do computador. Não é para menos: além de ocuparem menos espaço, consomem menos energia e são mais confortáveis aos olhos. Nas próximas linhas são mostrados e explicados detalhes da tecnologia LCD, de forma que você possa conhecer suas vantagens e seus diferenciais em relação aos tradicionais monitores CRT (Catodic Ray Tube - Tubo de raios catódicos).
Tecnologia LCD
A tecnologia LCD não é empregada apenas nos monitores para computador. No mercado, é possível encontrar dispositivos portáteis (como consoles móveis de aparelhos de video games, telefones celulares, calculadoras, câmeras digitais e handhelds) cuja tela é oferecida em LCD. Além disso, vale lembrar que notebooks utilizam esse padrão há anos.
Isso acontece porque a tecnologia LCD permite a exibição de imagens monocromáticas ou coloridas e animações em praticamente qualquer dispositivo, sem a necessidade de um tubo de imagem, como acontece com os monitores CRT.
Como indica o nome, as telas de LCD são formadas por um material denominado cristal líquido. As moléculas desse material são distribuídas entre duas lâminas transparentes polarizadas. Essa polarização é orientada de maneira diferente nas duas lâminas, de forma que estas formem eixos polarizadores perpendiculares, como se formassem um ângulo de 90º. A grosso modo, é como se uma lâmina recebesse polarização horizontal, e a outra, polarização vertical.
As moléculas de cristal líquido são capazes de orientar a luz. Quando uma imagem é exibida em um monitor LCD, elementos elétricos presentes nas lâminas geram campos magnéticos que induzem o cristal líquido a "guiar" a luz que entra da fonte luminosa para formar o conteúdo visual. Todavia, uma tensão diferente pode ser aplicada, fazendo com que as moléculas de cristal líquido se alterem de maneira a impedir a passagem da luz.
Em telas monocromáticas (comuns em relógios, calculadoras, etc), as moléculas assumem dois estados: transparentes (a luz passa), opaco (a luz não passa). Para telas que exibem cores, diferentes tensões e filtros que trabalham sobre a luz branca são aplicados às moléculas.
A luz do dispositivo, por sua vez, pode ser oriunda de lâmpadas especiais (geralmente fluorescentes) ou então de leds. É válido frisar que, no caso de dispositivos LCD com lâmpadas, estas têm durabilidade finita. No mercado, é possível encontrar monitores LCD cujas lâmpadas duram 20 mil horas, 30 mil e até 50 mil horas.
Tipos de LCD
A tecnologia LCD é dividida em tipos. A seguir são citados três:
TN (Twisted Nematic): é um tipo encontrado nos monitores LCD mais baratos. Nesse tipo, as moléculas de cristal líquido trabalham em ângulos de 90º. Monitores que usam TN podem ter a exibição da imagem prejudicada em animações muito rápidas;
STN (Super Twisted Nematic): é uma evolução do padrão TN, capaz de trabalhar com imagens que mudam de estado rapidamente. Além disso, suas moléculas têm movimentação melhorada, fazendo com que o proprietário consiga ver a imagem do monitor satisfatoriamente em ângulos muitas vezes superiores a 160º;
GH (Guest Host): o GH é uma espécie de pigmento contido no cristal líquido que absorve luz. Esse processo ocorre de acordo com o nível do campo elétrico aplicado. Com isso, é possível trabalhar com várias cores.
Monitores TFT (Thin Film Transistor) ou Matriz Ativa
Um tipo de tela muito encontrado no mercado é o TFT, sendo usado inclusive em notebooks. Essa tecnologia tem como principal característica a aplicação de transistores em cada pixel. Assim, cada unidade pode receber uma tensão diferente, permitindo, entre outras vantagens, a utilização de resoluções altas. Por outro lado, sua fabricação é tão complexa que não é raro encontrar monitores novos que contém pontos ou pixels que não funcionam (os chamados "dead pixels"). Essa tecnologia é muito utilizada com cristal líquido, sendo comum o nome TFT-LCD (ou Active Matrix LCD) para diferenciar esse equipamentos.
Há também um tipo denominado "Matriz Passiva" (DSTN - Double Super Twist Nematic), atualmente usado em dispositivos portáteis, já que esse tipo de tela tem ângulo de visão mais limitado e tempo de resposta maior. Para monitores, esse padrão já não é recomendado.
Telas de plasma
Há quem pense que monitores LCD e telas de plasma são as mesmas coisa, mas não são. A principal diferença deste tipo de tela, é que cada pixel cria sua própria fonte de luz e, portanto, não existe um tubo de imagem que barre a tela. A imagem da tela de plasma é muito nítida e não possui problemas de distorção nas extremidades da tela. Para gerar a luz em cada pixel, são usados elétrodos carregados entre painéis de cristal, que originam pequenas explosões de gás xenônio, que por sua vez, reagem com luz ultravioleta, fazendo o fósforo vermelho, verde ou azul de cada pixel brilhar.
Tamanho da tela e resolução
Com a popularização dos monitores LCD, é cada vez mais comum encontrar no mercado aparelhos de tamanhos maiores do que os tradicionais monitores de 14" ou 15" (lê-se o símbolo " como polegadas). No momento em que este artigo era elaborado no InfoWester, os monitores LCD de 17" eram os mais comuns, não sendo raro encontrar modelos de 19".
Em relação à resolução, os monitores LCD trabalham com taxas satisfatórias, mas há uma ressalva: é recomendável que o monitor trabalhe com a resolução que recebe de fábrica. Isso porque a exibição da imagem será prejudicada, caso uma taxa diferente seja usada. Por exemplo, pode acontecer de o monitor deixar uma borda preta em torno da imagem em resoluções menores que o padrão ou, ainda, o aparelho pode “esticar” a imagem, causando estranheza a quem vê. Além disso, tentar trabalhar com resoluções maiores é praticamente impossível.
Dispositivos com LCD
Tempo de resposta
O tempo de resposta é uma característica que interessa em muito a quem deseja utilizar o monitor LCD para rodar jogos ou assistir vídeos. Isso porque estas são aplicações que exigem mudança rápida do conteúdo visual. Se o monitor não for capaz de acompanhar essas mudanças, atrasará a alteração de estado de seus pixels, causando efeitos indesejados, como "objetos fantasmas" na imagem ou sombra em movimentos.
Quanto menor o tempo de resposta, melhor a atualização da imagem. No momento em que este artigo era escrito, já era possível encontrar monitores que oferecem tempo de resposta de 6 ms (milisegundos), mas o padrão era de 8 ms. Para um resultado satisfatório, é recomendável o uso de monitores com essa taxa inferior a 15 ms.
Contraste e brilho
O contraste é outra característica bem marcante na escolha de monitores LCD. Trata-se de uma medição da diferença de luminosidade entre o branco mais forte e o preto mais escuro. Quanto maior for esse valor, mais fiel será a exibição das cores da imagem. Isso acontece porque essa taxa, quando em número maior, indica que a tela é capaz de representar mais diferenças entre cores. Para o mínimo de fidelidade, é recomendável o uso de monitores com contraste de pelo menos 450:1.
Em relação ao brilho, o ideal é o uso de monitores que tenham essa taxa em, pelo menos, 250 cd/m² (candela por metro quadrado).
Vantagens e desvantagens
No decorrer do artigo, é possível notar as vantagens dos monitores LCD, porém vale a pena frisá-las melhor:
:: Um monitor LCD é muito mais fino que um monitor CRT, ocupando menos espaço físico;
:: Um monitor LCD é mais leve que um monitor CRT, facilitando seu transporte;
:: A tela de um monitor LCD é, de fato, plana. Os modelos CRT que possuem essa característica têm, na verdade, uma curvatura mínima;
:: Aárea de exibição de um monitor LCD é maior, já que nos monitores CRT a carcaça cobre as bordas do tubo de imagem. Isso não ocorre em aparelhos com LCD;
:: O consumo de energia de um monitor LCD é muito menor;
:: Há pouca ou nenhuma emissão de radiação.
Quanto às desvantagens:
:: Os monitores LCD têm mais limitação no uso de resoluções variadas (já explicado neste artigo);
:: O ângulo de visão de um monitor LCD é mais limitado, porém isso só ocorre em modelos antigos ou de qualidade inferior. Os modelos atuais trabalham com ângulos maiores;
:: Monitores TFT-LCD podem ter pixels que não funcionam ou não alteram de cor (os chamados "dead pixels"). Todavia, isso é cada vez menos freqüente;
:: O preço dos monitores LCD é ligeiramente superior aos monitores CRT, porém estão com preços cada vez mais acessíveis.
Monitores LCD widescreen
Já é comum encontrar no mercado monitores LCD na categoria widescreen. Mas, o que isso significa? Monitores desse tipo são mais largos, o que os tornam uma excelente opção para a visualização de filmes (muitas produções em DVD suportam esse formato), para a manipulação de planilhas longas, para trabalhos de tratamento de imagens, para edição de vídeos, para jogos, entre outros.
Via de regra, um monitor pode ser considerado widescreen quando tem um aspect ratio superior a 4:3. Isso quer dizer que a proporção da tela é uma unidade de medida maior na largura para cada três unidades de medida na altura. Para efeitos comparativos, bastaria uma tela ter aspect ratio de 4:4 (ou 1:1) para ser considerada quadrada. O monitor visto abaixo tem aspect ratio de 16:10, portanto, é widescreen:
A aquisição de monitores LCD widescreen tem se mostrado vantajosa, pois os valores de venda são próximos aos dos monitores LCD "normais". Além disso, também já é possível encontrar com facilidade notebooks cujas telas são widescreen, o que demonstra que essa é uma tendência de mercado. Note, no entanto, que um monitor de 19" widescreen não é, necessariamente, maior que um monitor de 19" "normal", por exemplo. O que acontece nos monitores widescreen é que, a grosso modo, suas laterais são mais afastadas, mas a distância entre as extremidades superior e inferior não aumentam na mesma proporção. Assim, a área de um monitor 19" widescreen não é, necessariamente, maior que a área de uma tela 19" "normal", como alguns pensam.
Finalizando
Os monitores LCD atuais se mostram bem mais em conta que os tradicionais aparelhos CRT. Além disso, os preços desse tipo de equipamento são cada vez mais acessíveis e a tecnologia é aperfeiçoada com o passar do tempo. Por isso, se você pretende adquirir um novo monitor, não hesite: prefira um com a tecnologia LCD. Alguns modelos já são tão avançados que podem, por exemplo, sintonizar sinais de TV, fazendo com que o aparelho sirva tanto como monitor quanto como televisor.

PIRATARIA DE SOFTWARE

O que é pirataria de software?

Estudo diz que produtores brasileiros tiveram em 2008 um prejuízo direto de R$ 1,645 bilhão em razão do software pirata no Brasil
Tudo isso causado devido aos preços altos dos softwares originais alimentam a pirataria, uma prática considerada ainda um crime.
A pirataria de software é uma prática ilícita, caracterizada pela reprodução sem autorização ou uso indevido de programas de computador legalmente protegidos.
Ela ocorre também quando alguém faz mais cópias de um programa do que o permitido ou quando, por exemplo, uma pessoa empresta a cópia de um programa para outra.
Ao adquirir um programa, os consumidores estão, realmente, comprando o direito de uso daquele software. Ao aceitar o acordo de licenciamento que acompanha quase toda instalação de software, eles não adquirem os direitos de revenda ou reprodução do programa. O custo real e o valor de cada peça de software recaem não na caixa, embalagem ou no CD-ROM, mas nas linhas de códigos que estão presentes neles, ou seja, no trabalho intelectual desenvolvido para criar as milhares de instruções que indicam o que um computador deve fazer.
Os tipos mais comuns de piratariaAo contrário do que a maioria das pessoas pensa, a pirataria e as irregularidades de licenciamento vão muito além da mera cópia de software. Embora essa possa ser a forma mais comum de pirataria, não é a única. Abaixo você encontrará uma lista de tipos de pirataria e irregularidades dos quais você deve estar ciente para proteger devidamente a sua empresa.
São os tipos de pirataria:
Cópias irregularesA cópia irregular constitui um tipo de pirataria na qual um indivíduo ou empresa replica indevidamente um software original.
No caso de licenças em volume, isso significa informar um número de instalações de software inferior ao realmente em uso ou instalado.
Embora essas formas comuns de pirataria possam parecer inofensivas, são ilegais e indevidas.
Software pré-instalado no disco rígidoPraticada por Integradores de Computador desonestos, este tipo de pirataria ocorre quando PCs são vendidos com software ilegal pré-instalado. Os revendedores usam uma cópia adquirida legalmente para fazer instalações ilegais em várias máquinas.
FalsificaçãoA falsificação é a pirataria de software em grande escala, em que o software reproduzido de forma ilegal, freqüentemente por facções do crime organizado, é depois redistribuído na forma de uma imitação do produto original. Esteja atento para preços que parecem "bons demais para ser verdade", embalagens com aparência suspeita e software dos quais estejam faltando discos ou documentação.
Canais ilegais de distribuiçãoEsteja atento para softwares cuja embalagem ou contrato de licença indiquem "Preço Acadêmico", "Revenda Proibida", "Revenda Proibida no Varejo" ou ainda "Apenas para distribuição em OEM". Estas licenças só estão regulares se os seus proprietários forem qualificados para sua finalidade.
Pirataria na InternetA pirataria na Internet ocorre quando a rede mundial de computadores é utilizada para copiar ou distribuir softwares falsificados ou sem autorização. Pode ocorrer da Internet ser utilizada para promover, oferecer, adquirir ou distribuir software pirata. O software é um dos produtos líderes na distribuição online, e de acordo com um estudo publicado pela Internacional Data Corp., o mercado mundial para as vendas de software eletrônicas atingiu U$ 3.5 bilhões em 1999.
Durante os últimos anos, as vendas de software falsificado por negócios na Internet e sites de leilão multiplicaram e se tornaram um problema desafiador para consumidores, negócios legítimos na rede e para toda a indústria de software. É estimada a existência de milhões de sites na Internet (incluindo os de leilões) vendendo software ilegal e passando-os como produtos genuínos.
Comprando na Internet com segurançaAs campanhas educativas e as de alerta são as melhores defesas para proteger possíveis vítimas de softwares falsificados. Para se proteger, cuidar de seus dados e de suas carteiras, os consumidores devem exercitar sua atenção ao adquirir software pela rede e se familiarizar com os sinais de produtos piratas, evitando, por conseqüência, a proliferação de negócios na Internet e sites de leilão que vendam tais programas.
Os avisos fazem uma diferença enorme para auxiliar na proteção em compras online. Seguem algumas dicas para ajudar consumidores a comprar com inteligência e segurança:
Fique atento que nem todo mundo é honesto como você. A falsificação de software está muito presente nos negócios espalhados pela Internet, como nos sites de leilões.
Consiga os endereços e telefones completos das empresas com que for negociar. Evite fazer negócio com empresas ou indivíduos que não forneçam identidades, nomes completos, endereços ou telefones que possam ser indicados após a transação ser completada.
Sempre pergunte por detalhes completos como as políticas de entrega, serviços e garantias. Evite comprar de distribuidores online que não forneçam as descrições dessas políticas de forma completa e satisfatória.
Mantenha registros. Imprima a página com a ordem de compra, assim como de qualquer e-mail de confirmação, mantendo-os até a chegada do produto em perfeitas condições.
Cheque os preços dos produtos para reduzir as chances de adquirir softwares ilegais. Se os preços parecerem bons demais para ser verdade, provavelmente não estaremos tratando de produtos legais. Como um fiscal, confira diferentes ofertas e compare ao preço sugerido pelo produtor ou ao preço de varejo. Tudo bem se o preço for menor, mas fique atento se for muito menor.
Fique atento aos revendedores na Web que oferecerem explicações inusitadas para seus estoques, como ofertas especiais conseguidas com os produtores ou liquidações extremamente atraentes. Os falsificadores sempre se utilizam desse tipo de desculpas para enganar os consumidores, fazendo-os acreditar que eles estão adquirindo produtos originais que "precisam" ser vendidos.
Reveja e entenda os produtos. É fácil ser levado por softwares que não são bem apresentados na Internet. Distinguir falsificações e softwares ilegais na rede é extremamente difícil porque não é possível apreciar o produto ou o vendedor. Tire um tempo para procurar opiniões e falar com colegas, família e amigos, não apenas sobre os produtos que pretende adquirir, mas também sobre as pessoas que estão vendendo.
Em caso de dúvida, entre em contato com o produtor do software. O produtor poderá fornecer detalhes sobre o que deve ser recebido como parte da aquisição e dará indicações sobre os preços possíveis.
Por que comprar programas originais?
Pirataria está relacionada ao crime organizadoO camelô que vende o CD pirata nas ruas é apenas o intermediário do comércio ilegal onde poucos realmente lucram e que rende milhões ao crime. O dinheiro das vendas de software e de outros produtos pirateados muitas vezes financia a compra de armamentos e suprimentos aos narcotraficantes, seqüestradores e outros criminosos que estão por detrás da pirataria.
Pirataria gera desempregoO comércio ambulante de produtos piratas e as revendas que já vendem o computador com a cópia irregular do software impedem que novas empresas produtoras de software sejam criadas, que novas empresas estrangeiras venham para o Brasil ou que as que já estão aumentem os seus investimentos em nosso país, desestimula a pesquisa por novos produtos, impede o aumento no número de revendas legais. Enfim, gera desemprego no mercado formal, que poderia estar contribuindo em muito para o crescimento do país.
Quem vende não dá garantia da qualidadeO software irregular não tem direito a suporte técnico. Se tiver um problema com o programa irregular, você terá que se virar sozinho.
Problemas de compatibilidade de softwareO software pirata pode provocar incompatibilidade entre programas que normalmente funcionariam juntos sem conflitos.
Vírus podem danificar computadores e redesOs programas de software piratas podem conter vírus que causem danos aos computadores e a toda a rede. Os vírus podem causar, e com freqüência causam, perda irrecuperável de dados, o que no mínimo pode ser uma enorme "dor de cabeça" para o usuário doméstico e fatal para uma empresa.
Custos legais e multasO uso irregular das licenças de software pode resultar em penalidades financeiras e custos processuais para quem as utiliza. Além disso, quem for flagrado utilizando software pirata pode ser responsabilizado civil e criminalmente, pela violação dos direitos autorais (copyright). No Brasil, a Lei 9609/98 (Lei do Software) e a Lei 9610/98 prevêem duras multas indenizatórias que chegam a 3.000 vezes o valor da licença original.

sábado, 22 de agosto de 2009

USANDO O EASY RECOVERY PARA RECUPERAR ARQUIVOS DELETADOS !

Usando o Easy Recovery


Um dos programas mais antigos e respeitados é o Easy Recovery, desenvolvido pela Ontrack. Ele está disponível no: http://www.ontrack.com/software/.

Assim como em outros programas de recuperação de dados, o trabalho do Easy Recovery se concentra em acessar diretamente os dados armazenados na partição, procurando diretamente por diretórios e arquivos, sem depender das estruturas do sistema de arquivos. Apesar disso, todo o trabalho pesado é feito por baixo dos panos, fazendo com que o programa tenha uma interface muito simples. Basicamente, você indica a partição, espera o final do teste, marca os arquivos que deseja recuperar e indica o destino e, no final, checa os arquivos recuperados.

Dentro do programa, acesse a seção "Data Recovery". Dentro dela, a opção "Deleted Recovery" permite recuperar arquivos e pastas dentro de uma partição contendo outros arquivos, como em casos em que algumas pastas e arquivos específicos foram deletados, mas o restante dos arquivos continua presente; enquanto a "Format Recovery" recupera dados em partições que foram reformatadas ou em casos onde o sistema foi reinstalado. Usando essa opção, o programa ignora a estrutura atual e tenta remontar a estrutura da formatação anterior.

Existe ainda a opção "Raw Recovery" que tenta recuperar dados remanescentes em casos onde o HD já foi reparticionado mais de uma vez e dados foram gravados por cima, subscrevendo os anteriores. Nesse caso a eficiência é limitada, mas é quase sempre possível recuperar alguns arquivos.

Note que o EasyRecovery é eficiente ao recuperar dados apagados dentro de partições, mas ele não é capaz de recuperar a tabela de particionamento.

Em casos em que as partições são apagadas ou a tabela é corrompida, o trabalho de recuperação seria feito em duas partes. Na primeira você utilizaria o Testdisk para recuperar as partições originais e (caso necessário), usaria em seguida o EasyRecovery para recuperar arquivos dentro delas. É relativamente incomum que as duas coisas aconteçam ao mesmo tempo (perder a tabela de particionamento e perder junto arquivos dentro das partições) por isso normalmente usamos ou um ou outro.


Tela principal do EasyRecovery

O passo seguinte é indicar a partição onde estão os arquivos a recuperar. Além de partições em HDs, você pode recuperar dados em pendrives, cartões de memória e outros tipos de mídia. A principal observação é que você precisa sempre de uma partição separada para onde copiar os arquivos recuperados. Todo o teste do Easy Recovery é feito de forma não destrutiva, sem alterar os arquivos dentro da partição, por isso ele não é capaz de restaurar os arquivos diretamente.

Outra observação é que você nunca deve instalar o Easy Recovery nem usar uma instalação do Windows dentro da mesma partição onde estão os arquivos. Se os arquivos perdidos estão armazenados na mesma partição onde o Windows está instalado, o melhor a fazer é desligar o micro, remover o HD, instalá-lo como slave em outro PC e realizar o teste a partir dele. Se você pretende recuperar dados de forma rotineira, o ideal é já ter um PC preparado para isso.


Seleção da partição

Dentro da tela de seleção de partição, você tem a opção de ativar o "Complete Scan". Essa opção faz o teste demorar mais, mas oferece uma eficiência muito maior. É recomendável marcá-la sempre que você precisar recuperar mais do que um ou dois arquivos recentemente deletados.

De acordo com o tamanho da partição, o teste pode demorar de alguns minutos a algumas horas, já que o programa precisa ler todos os dados gravados e aplicar os algoritmos que permitem identificar os arquivos.

Concluído o teste, os arquivos localizados são marcados e você só precisa selecionar quais quer recuperar (ou simplesmente marcar tudo). Lembre-se de verificar o espaço disponível na partição de destino.

No screenshot a seguir, estou recuperando um grande volume de arquivos propositalmente deletados em uma partição FAT32. Como os arquivos não tinham sido sobrescritos, todos os arquivos foram recuperados. Duas das pastas perderam a primeira letra do nome ("_IMP" ao invés de "GIMP" e "_LV" ao invés de "VLC") e alguns dos arquivos de imagem ficaram com pequenos defeitos nos primeiros kbytes. Com exceção de detalhes como estes, a recuperação de arquivos recentemente deletados é quase sempre perfeita.

Na tela seguinte você indica a pasta onde salvar os arquivos. Existe também a opção de dar upload para um servidor FTP (você pode manter um servidor FTP local na sua rede, de forma que os arquivos sejam copiados na velocidade de transmissão da rede local) ou gerar um arquivo compactado em .zip, de forma a reduzir o espaço ocupado.

O Easy Recovery inclui também algumas ferramentas para reparo de arquivos danificados (as opções "File Repair" e "Email Repair" do menu) que permitem reparar arquivos do Office, arquivos .zip e arquivos de e-mail do outlook corrompidos. Elas podem ser usadas de forma independente das opções de recuperação.

O grande problema com o EasyRecovery é que ele é um programa caro, voltado para o uso profissional. A versão de demonstração, disponível para download executa a varredura e mostra os arquivos que podem ser recuperados, mas sem opção de recuperá-los. A versão completa (para uso pessoal) custa nada menos que US$ 499 e está limitada à recuperação de dados em 20 HDs, enquanto a versão para uso profissional custa US$ 1499 anuais. Existe ainda uma versão Lite, que custa apenas US$ 89, mas está limitada à recuperação de apenas 25 arquivos por sessão.

Outra questão é que o Easy Recovery não é multiplataforma e se restringe a recuperar arquivos em partições formatadas em FAT16, FAT32 e NTFS. Isso impede que ele possa ser considerado sozinho como uma opção completa de recuperação de dados.


COPIANDO DADOS DE MIDIAS DEFEITUOSAS

Copiando dados de mídias defeituosas


É difícil copiar arquivos a partir de um HD com badblocks, ou um CD-ROM riscado, por meios normais. Os programas fazem a cópia apenas até o ponto em que encontram o primeiro erro de leitura. Mesmo que exista apenas um setor defeituoso no meio do arquivo, você quase nunca conseguirá copiar o arquivo inteiro, apenas a metade inicial.

Existe um utilitário eficiente para fazer cópias a partir de mídias ruins, o dd_rescue. Ele faz a cópia das partes boas, ignorando os setores defeituosos. Funciona bem para recuperar arquivos de texto, imagens, vídeos, músicas, qualquer tipo de arquivo que possa ser aberto mesmo que estejam faltando alguns pedaços.

O dd_rescue é mais um pequeno utilitário que pode ser executado a partir de uma distribuição Linux live-CD. Se você está usando o Kurumin, Knoppix, Ubuntu, ou outra distribuição baseada no Debian, pode instalá-lo diretamente, via apt-get (logado como root):

# apt-get update
# apt-get install ddrescue

Para usá-lo, indique a localização da partição ou CD-ROM que será copiado e um arquivo de destino. Ao copiar uma partição, você sempre precisa copiar o arquivo para dentro de uma partição diferente. A partição ou CD-ROM de origem deve sempre estar desmontada.

Para copiar um CD-ROM:

# dd_rescue /dev/cdrom /mnt/hda6/cdrom.img
(onde /mnt/hda6/cdrom.img é o arquivo onde os dados serão salvos)

Para copiar uma partição:

# dd_rescue /dev/hda1 /mnt/hda6/hda1.img

Para acessar os arquivos dentro da imagem, você deve montá-la usando a opção "-o loop" do mount, que monta um arquivo como se fosse um dispositivo, indicando a pasta onde os arquivos ficarão acessíveis, como em:

# mount -o loop /mnt/hda6/cdrom.img /mnt/imgcdrom
ou:

# mount -o loop /mnt/hda6/hda1.img /mnt/imghda1

Você verá todos os arquivos dentro da pasta e poderá acessar o que foi possível ler.

Um problema do dd_rescue é que ele lê cada setor defeituoso várias vezes, de forma a tentar obter os dados a qualquer custo. Por um lado, isto é positivo, pois ele realmente acaba conseguindo recuperar vários setores que falham na primeira leitura, mas por outro lado, faz com que o processo de recuperação fique extremamente lento em mídias com muitos setores defeituosos.

Isto é especialmente problemático ao recuperar dados em HDs, pois se o teste demora muito, a possibilidade do drive dar seu último suspiro durante a recuperação, levando consigo os dados restantes, é muito maior.

Uma solução é usar o "dd_rhelp", um programa que trabalha em conjunto com o dd_rescue, otimizando seu comportamento.

Ao usar o dd_rhelp, o processo de recuperação é dividido em duas etapas. Na primeira, ele recupera os dados, pulando os setores defeituosos. Quando a recuperação está completa, ele carrega a lista dos setores que falharam na primeira leitura e aí sim, passa ao comportamento padrão, lendo cada setor várias vezes. A diferença é que, no caso, você já está com os dados seguros.

Você pode baixar o dd_rhelp no http://www.kalysto.org/utilities/dd_rhelp/download/index.en.html ou http://freshmeat.net/projects/dd_rhelp/.

No site, está disponível apenas o pacote com o código fonte, mas ele é relativamente simples de compilar. Descompacte o arquivo, acesse a pasta que será criada e use os comandos:

# ./configure
# make

Isto vai criar o executável dentro da pasta atual. Ao usá-lo, a sintaxe é a mesma do dd_rescue:

# ./dd_rhelp /dev/cdrom /mnt/hda6/cdrom.img



PLACA CONTROLADORA DO HD

A placa controladora


A placa lógica, ou placa controladora, é a parte "pensante" do HD. Com exceção dela, o HD é um dispositivo relativamente simples, composto por uma série de dispositivos mecânicos. É a controladora que faz a interface com a placa-mãe, controla a rotação do motor e o movimento das cabeças de leitura, de forma que elas leiam os setores corretos, faz a verificação das leituras, de forma a identificar erros (e se possível corrigi-los, usando os bits de ECC disponíveis em cada setor), atualiza e usa sempre que possível os dados armazenados no cache de disco (já que acessá-lo é muito mais rápido do que fazer uma leitura nas mídias magnéticas) e assim por diante.

Aqui temos a placa lógica de um HD Samsung HD080HJ:

Veja que a placa possui apenas três chips. O maior, no canto superior, é um Samsung K4S641632H-UC60. Você pode notar que ele é muito semelhante a um chip de memória, e na verdade é :). Ele é um chip de memória SDRAM de 8 MB, que armazena o cache de disco. Até pouco tempo atrás, os HDs utilizavam chips de memória SRAM, mas os fabricantes passaram a utilizar, cada vez mais, chips de memória SDRAM convencional para reduzir o custo de produção. Na prática não muda muita coisa, pois apesar de mais lenta, a memória SDRAM oferece desempenho suficiente para a tarefa.

Assim como no caso dos processadores, o cache é um componente importante para o desempenho do HD. Ele armazena os dados acessados, diminuindo bastante o número de leituras. Dados armazenados no cache podem ser transferidos quase que instantaneamente, usando toda a velocidade permitida pela interface SATA ou IDE, enquanto um acesso a dados gravados nos discos magnéticos demoraria muito mais tempo.

Continuando, temos o controlador principal, um chip Marvell 88i6525, que é quem executa todo o processamento. Este chip é na verdade um SOC (System On a Chip), formado por um conjunto de vários chips menores, que são combinados dentro do mesmo wafer de silício.

Por exemplo, este HD é um modelo SATA. A controladora da placa-mãe se comunica com ele utilizando comandos padronizados, que são comuns a qualquer HD SATA. É por isso que você não precisa instalar um driver especial para cada modelo de HD, precisa apenas de um driver padrão, que sabe se comunicar com qualquer HD. Internamente, os comandos SATA são processados e convertidos nos comandos que irão mover a cabeça de leitura, fazer girar os discos até o ponto correto e assim por diante. O sistema operacional não gerencia diretamente o cache de disco, quem faz isso é a própria controladora, que se esforça para usá-lo da forma mais eficiente possível.

Naturalmente, tudo isso exige processamento, daí a complexidade interna do chip controlador. Apesar de pequena, a placa controladora de um disco atual é muito mais sofisticada do que um micro antigo inteiro (um 286 por exemplo). Elas possuem mais poder de processamento e até mesmo mais memória, na forma do cache. Os HDs atuais usam de 8 a 32 MB de cache de disco, mais memória do que era usada em micros 386 e 486 e, ainda por cima, muito mais rápida! :)

Uma curiosidade é que muitos HDs antigos utilizavam um processador Intel 186 como controlador de discos. O 186 é, como você pode imaginar, o "elo perdido" entre o 8088 usado no PC XT e o 286. Ele é um chip que acabou não sendo usado nos micros PCs, mas fez um grande sucesso como microcontrolador para funções diversas.

Concluindo, temos um terceiro chip, escondido na parte inferior esquerda da foto. Ele é um Hitachi HA13645, um chip especializado, que controla o movimento das cabeças de leitura e também a rotação do motor. O chip principal envia comandos a ele, dizendo que quer acessar o setor X, ou que o motor deve entrar em modo de economia de energia, por exemplo, e ele os transforma nos impulsos elétricos apropriados. Essas funções mudam de um modelo de HD para o outro, por isso os fabricantes preferem usar um chip de uso geral como o Marvell 88i6525 como controlador principal, mudando apenas o controlador auxiliar, que é um chip menor e mais barato.

A placa controladora é um componente "externo" do HD, que pode ser rapidamente substituído caso necessário. Grande parte (talvez até a maioria) dos casos onde o HD "queima" devido a problemas na rede elétrica, ou defeitos diversos, podem ser solucionados através da troca da placa controladora, permitindo recuperar os dados sem ter que recorrer aos caros serviços de uma empresa especializada.

O grande problema é justamente onde encontrar outra placa. Os fabricantes vendem placas avulsas em pequenas quantidades para empresas de recuperação, mas o fornecimento é muito restrito. Para técnicos autônomos e pequenas empresas, a única solução é usar placas doadas por outros HDs. Se o HD for um modelo recente, você pode simplesmente comprar outro, pegar a placa emprestada para fazer a recuperação dos dados e depois devolvê-la ao dono. Mas, no caso de HDs mais antigos, a única forma é procurar nos sites de leilão e fóruns em busca de uma placa usada. Existe um verdadeiro mercado paralelo de venda de placas avulsas, já que existem muitos casos de HDs inutilizados por problemas na mídia magnética, onde a placa ainda é utilizável.

É comum que os fabricantes utilizem a mesma placa lógica e os mesmos discos magnéticos em vários HDs da mesma família, variando apenas o número de discos usados. Assim, o modelo de 500 GB pode ter 4 discos, enquanto o modelo de 250 GB possui apenas dois, por exemplo. Nesses casos, é normal que a placa controladora de um funcione no outro.

Remover a placa é simples, basta usar uma chave torx para remover os parafusos e desencaixar a placa com cuidado. Na maioria dos HDs atuais, a placa é apenas encaixada sobre os contatos, mas em outros ela é ligada através de um cabo flat, que precisa ser desconectado com cuidado.

Mais uma curiosidade é que os primeiros PCs utilizavam HDs com interfaces MFM ou RLL. Eles utilizavam controladoras externas, instaladas em um slot ISA e ligadas ao HD por dois cabos de dados. Esse arranjo era muito ineficiente, pois a distância tornava a comunicação muito suscetível a interferências e corrupção de dados. Esses HDs possuíam várias peculiaridades com relação aos atuais, como a possibilidade de fazer uma "formatação física", onde as trilhas de dados eram realmente regravadas, o que permitia recuperar HDs com problemas de alinhamento.

Esses HDs jurássicos foram usados nos micros XT e 286 e sobreviveram até os primeiros micros 386, quando foram finalmente substituídos pelos HDs IDE (que por sua vez foram substituídos pelos HDs SATA que usamos atualmente), onde a controladora é parte integrante do HD.

Hoje em dia, a "formatação física" sobrevive apenas como um vício de linguagem. Muitos dizem que "fizeram uma formatação física" ao reparticionar o HD ou ao usar um programa que apaga os dados gravados (como o "zero-fill", ou o "dd" do Linux), embora uma coisa não tenha nada a ver com a outra.

COMO FUNCIONA UM HD ?


Dentro do disco rígido, os dados são gravados em discos magnéticos, chamados de platters. O nome "disco rígido" vem justamente do fato de os discos internos serem extremamente rígidos.

Os platters são compostos de duas camadas. A primeira é chamada de substrato, e nada mais é do que um disco metálico, feito de ligas de alumínio. Mais recentemente, alguns fabricantes passaram a utilizar também vidro, que oferece algumas vantagens, como a maior dureza, embora também seja mais difícil de se trabalhar. Os primeiros HDs com discos de vidro foram os IBM Deskstar 75GXP, lançados em 2001.

Independentemente do material usado, o disco precisa ser completamente plano. Como os discos giram a grandes velocidades e as cabeças de leitura trabalham extremamente próximas da superfície magnética, qualquer variação seria fatal. Para atingir a perfeição necessária, o disco é polido em uma sala limpa, até que se torne perfeitamente plano. Vem então a parte final, que é a colocação da superfície magnética nos dois lados do disco.

Como a camada magnética tem apenas alguns microns de espessura, ela é recoberta por uma fina camada protetora, que oferece alguma proteção contra pequenos impactos.

Os discos são montados em um eixo também feito de alumínio, que deve ser sólido o suficiente para evitar qualquer vibração dos discos, mesmo a altas rotações. Este é mais um componente que passa por um processo de polimento, já que os discos devem ficar perfeitamente presos e alinhados. No caso de HDs com vários discos, eles são separados usando espaçadores, novamente feitos de ligas de alumínio.

Finalmente, temos o motor de rotação, responsável por manter uma rotação constante. O motor é um dos maiores responsáveis pela durabilidade do disco rígido, pois uma grande parte das falhas graves provém justamente do motor.

Os HDs mais antigos utilizavam motores de 3.600 rotações por minuto, enquanto que atualmente são utilizados motores de 5.400, 7.200 ou 10.000 RPM. Nos HDs de notebook ainda são comuns motores de 4.200 RPM, mas os de 5.400 RPM já são maioria. Embora não seja o único, a velocidade de rotação é sem dúvida o fator que influencia mais diretamente no desempenho.

Para ler e gravar dados no disco, são usadas cabeças de leitura eletromagnéticas (heads) que são presas a um braço móvel (arm), o que permite seu acesso a todo o disco. O braço de leitura é uma peça triangular, também feita de ligas de alumínio, para que seja ao mesmo tempo leve e resistente. O mecanismo que movimenta o braço de leitura é chamado de actuator.

Nos primeiros discos rígidos, eram usados motores de passo para movimentar os braços e cabeças de leitura. Eles são o mesmo tipo de motor usado nos drives de disquete, onde ao receber um impulso elétrico o motor move o braço por uma curta distância, correspondente ao comprimento de uma trilha. O problema é que eles eram muito suscetíveis a problemas de desalinhamento e não permitiam densidades de gravação muito altas.

Os discos contemporâneos (qualquer coisa acima de 80 MB) utilizam um mecanismo bem mais sofisticado para essa tarefa, composto por um dispositivo que atua através de atração e repulsão eletromagnética, sistema chamado de voice coil. Basicamente temos um eletroímã na base do braço móvel, que permite que a placa controladora o movimente variando rapidamente a potência e a polaridade do ímã. Apesar de parecer suspeito à primeira vista, esse sistema é muito mais rápido, preciso e confiável que os motores de passo. Para você ter uma idéia, os HDs do início da década de 80, com motores de passo, utilizavam apenas 300 ou 400 trilhas por polegada, enquanto um Seagate ST3750640AS (de 750 GB) atual utiliza nada menos do que 145.000.

Aqui temos um diagrama mostrando os principais componentes do HD:

Para que o HD possa posicionar a cabeça de leitura sobre a área exata referente à trilha que vai ser lida, existem sinais de feedback gravados na superfícies do disco, que orientam o posicionamento da cabeça de leitura. Eles são sinais magnéticos especiais, gravados durante a fabricação dos discos (a famosa formatação física), que são protegidos através de instruções de bloqueio incluídas no firmware do HD contra alteração posterior. Esses sinais eliminam os problemas de desalinhamento que existiam nos primeiros HDs.

Ao ler um arquivo, a controladora posiciona a cabeça de leitura sobre a trilha onde está o primeiro setor referente a ele e espera que o disco gire até o setor correto. Este tempo inicial, necessário para iniciar a leitura, é chamado de tempo de acesso, e mesmo os HDs atuais de 7.200 RPM fica em torno de 12 milésimos de segundo, o que é uma eternidade em se tratando de tempo computacional. O HD é relativamente rápido ao ler setores seqüenciais, mas ao ler vários pequenos arquivos espalhados pelo HD, o desempenho pode cair assustadoramente. É por isso que existem programas desfragmentadores, que procuram reorganizar a ordem dos arquivos, de forma que eles sejam gravados em setores contínuos.

Outro dado interessante é a maneira como as cabeças de leitura lêem os dados, sem tocar na camada magnética. Se você tiver a oportunidade de ver um disco rígido aberto, verá que, com os discos parados, as cabeças de leitura são pressionadas levemente em direção ao disco, tocando-o com uma certa pressão. Aqui temos o braço de leitura de um HD, depois de removido. Veja que mesmo sem o disco magnético entre elas, as duas cabeças de leitura pressionam-se mutuamente:

Apesar disso, quando os discos giram à alta rotação, forma-se uma espécie de colchão de ar, que repele a cabeça de leitura, fazendo com que ela fique sempre a alguns nanômetros de distância dos discos. É o mesmo princípio utilizado na asa de um avião; a principal diferença neste caso é que a cabeça de leitura é fixa, enquanto os discos é que se movem, mas, de qualquer forma, o efeito é o mesmo. Como veremos a seguir, os HDs não são fechados hermeticamente, muito menos a vácuo, pois é necessário ar para criar o efeito.

Esta foto mostra a cabeça de leitura "flutuando" sobre o disco em movimento. A distância é tão curta que mesmo ao vivo você tem a impressão de que a cabeça está raspando no disco, embora na realidade não esteja. Como a cabeça de leitura se movimenta rapidamente durante a operação do disco, é muito difícil tirar fotos. Para conseguir tirar esta, precisei "trapacear", desmontando o actuator e suavemente movendo a cabeça da área de descanso para o meio do disco. :)

Os discos magnéticos são montados diretamente sobre o eixo do motor de rotação, sem o uso de correias ou qualquer coisa do gênero. É justamente este design simples que permite que os discos girem a uma velocidade tão grande.

Embora mais potente e muito mais durável, o motor de rotação usado nos HDs é similar aos usados nos coolers. Nos HDs antigos, eram usados motores sleeve bearing, o sistema mais simples e menos durável, que foi usado nos HDs de 3600 RPM. Em seguida, foram adotados motores ball-bearing, onde são usados rolamentos para aumentar a precisão e a durabilidade. Nos HDs modernos, é utilizado o sistema fluid-dynamic bearing, onde os rolamentos são substituídos por um fluído especial, que elimina o atrito, reduzindo o ruído e o nível de vibração.

Aqui temos o mesmo HD da foto anterior completamente desmontado, mostrando o interior do motor de rotação:

Assim como a maioria dos modelos de baixa capacidade, este HD utiliza um único disco, mas a maioria dos modelos utiliza dois, três ou quatro, que são montados usando espaçadores. O HD possui duas cabeças de leitura para cada disco (uma para cada face), de forma que um HD com 4 discos utilizaria 8 cabeças de leitura, presas ao mesmo braço móvel.

Embora usar mais discos permita construir HDs de maior capacidade, não é comum que os fabricantes utilizem mais de 4, pois a partir daí torna-se muito difícil (e caro) produzir componentes com a precisão necessária para manter todos os discos alinhados. Antigamente, era comum que HDs de alta capacidade (e alto custo :), sobretudo os destinados a servidores, possuíssem 6, ou até mesmo 12 discos, mas eles saíram de moda a partir da década de 90, devido à baixa demanda. Desde então, os fabricantes padronizaram a produção em torno dos HDs com até 4 discos e quem precisa de mais capacidade compra vários e monta um sistema RAID. No caso dos servidores, é muito comum o uso de racks, com um grande número de HDs SAS ou SATA.

Naturalmente, qualquer HD aberto fora de uma sala limpa acaba sendo impregnado por partículas de poeira e por isso condenado a apresentar badblocks e outros defeitos depois de alguns minutos de operação.

Todo HD é montado e selado em um ambiente livre de partículas, as famosas salas limpas. Apesar disso, eles não são hermeticamente fechados. Em qualquer HD, você encontra um pequeno orifício para entrada de ar (geralmente escondido embaixo da placa lógica ou diretamente sob a tampa superior), que permite que pequenos volumes de ar entrem e saiam, mantendo a pressão interna do HD sempre igual à do ambiente. Esse orifício é sempre protegido por um filtro, que impede a entrada de partículas de poeira.


Orifício de ventilação do HD

Devido a isso, a pressão do ar tem uma certa influência sobre a operação do HD. Os HDs são normalmente projetados para funcionar a altitudes de até 3.000 metros acima do nível do mar. Em altitudes muito elevadas, a pressão do ar é menor, comprometendo a criação do colchão de ar. Para casos extremos (uso militar, por exemplo), existem HDs pressurizados, que podem trabalhar a qualquer altitude.

Internamente, o HD possui um segundo filtro, que filtra continuamente o ar movimentado pelos discos. Ele tem a função de capturar as partículas que se desprendam dos componentes internos durante o uso, devido a desgaste ou choques diversos. Aqui temos uma foto de um, preso num dos cantos da parte interna do HD:


Filtro interno

Enquanto o HD está desligado, as cabeças de leitura ficam em uma posição de descanso. Elas só saem dessa posição quando os discos já estão girando à velocidade máxima. Para prevenir acidentes, as cabeças de leitura voltam à posição de descanso sempre que não estão sendo lidos dados, apesar dos discos continuarem girando.

É justamente por isso que às vezes, ao sofrer um pico de tensão, ou o micro ser desligado enquanto o HD está sendo acessado, surgem setores defeituosos. Ao ser cortada a energia, os discos param de girar e é desfeito o colchão de ar, fazendo com que as cabeças de leitura possam vir a tocar os discos magnéticos.

Para diminuir a ocorrência desse tipo de acidente, nos HDs modernos é utilizado um sistema que recolhe as cabeças de leitura automaticamente para a área de descanso quando a energia é cortada (tecnologia chamada de auto-parking). A área de descanso é também chamada de "landing zone" e engloba algumas das trilhas mais centrais do disco, uma área especialmente preparada para receber o impacto do "pouso" das cabeças de leitura. Uma das tecnologias mais populares é a LZT (Laser Zone Texture), uma tecnologia desenvolvida pela IBM, onde um laser é usado para produzir pequenas cavidades ao longo da zona de pouso, que reduzem o atrito com a cabeça de leitura:


Outra técnica consiste em usar "rampas" feitas de material plástico, posicionadas na área externa dos discos, que suspendem as cabeças de leitura, evitando que elas toquem os discos mesmo quando eles param de girar. Esta tecnologia foi inicialmente usada em HDs de notebook, mas recentemente passou a ser usada também nos de 3.5" para desktops. Ela pode parecer simples, mas na verdade exige bastante tecnologia, devido à precisão necessária:


Rampas de descanso para as cabeças de leitura

Apesar de evitar danos físicos, o auto-parking nada pode fazer para evitar perda de dados ao desligar o micro incorretamente. Mesmo que todos os arquivos estejam salvos, ainda existem dados no cache de disco (criado pelo sistema operacional, usando parte de memória RAM) e também no cache do HD, que utiliza memória SDRAM (também volátil). Para acelerar as operações de gravação, todos os arquivos (sobretudo os pequenos) são salvos inicialmente nos caches e depois transferidos para os discos magnéticos em momentos de ociosidade. Quando o micro é desligado abruptamente, os dados em ambos os caches são perdidos, fazendo com que você sempre perca as últimas alterações, muitas vezes em arquivos que acreditava estarem salvos.

Por causa de tudo isso, é sempre importante usar um nobreak em micros de trabalho. A longo prazo, os dados perdidos e possíveis danos ao equipamento por causa de quedas de energia acabam custando muito mais do que um nobreak popular.

Mesmo assim, por melhores que sejam as condições de trabalho, o HD continua sendo um dispositivo baseado em componentes mecânicos, que têm uma vida útil muito mais curta que a de outros componentes do micro. De uma forma geral, os HDs para desktop funcionam de forma confiável por de dois a três anos (em um PC usado continuamente). Depois disso, é melhor substituir o HD por um novo e mover o antigo para outro micro secundário, onde ele não vá armazenar informações importantes, pois a possibilidade de defeitos começa a crescer exponencialmente.

Fala-se muito sobre a vulnerabilidade dos HDs com relação a ímãs. Como os HDs armazenam os dados em discos magnéticos, colocar um ímã suficientemente forte próximo a ele pode apagar rapidamente todos os dados. Existem inclusive "desmagnetizadores", que são eletroímãs ligados na tomada, que você passa sobre os HDs e outros discos magnéticos, justamente com a intenção de apagar os dados rapidamente.

Entretanto, se você abrir um HD condenado, vai encontrar dois ímãs surpreendentemente fortes instalados dentro do mecanismo que move a cabeça de leitura. Naturalmente, estes ímãs não danificam os dados armazenados (senão não estariam ali ;). O principal motivo disso é que eles estão instalados numa posição perpendicular aos discos magnéticos. Se você remover os ímãs e colocá-los sobre outro HD, vai ver que no outro dia uma boa parte dos dados terão sido perdidos.

Se você (como todos nós) é do tipo que não consegue desmontar um micro sem deixar cair parafusos nos locais mais inacessíveis do gabinete, tem dificuldades em colocar os parafusos dos dois lados ao instalar o HD e ainda por cima nunca acha uma chave de fenda magnética para comprar, pode usar esses magnetos "roubados" do HD para transformar qualquer chave de fenda em uma chave magnética. Basta "encaixar" os ímãs nela quando quiser o efeito. Esses magnetos são feitos de uma liga contendo neodímio e, além de parafusos, permitem levantar objetos um pouco mais pesados, como martelos, por exemplo... ;)

Naturalmente, você deve tomar cuidado de não passá-los sobre discos magnéticos, a menos que queira intencionalmente apagá-los. Se você deixar a chave em contato com os ímãs por um longo período, ela continuará magnetizada (por algum tempo) mesmo depois de retirá-los.

Ao contrário da crença popular, chaves magnéticas não são perigosas para os HDs, pois os magnetos usados são muito fracos se comparados aos magnetos usados no mecanismo de leitura e no motor de rotação do HD. Os próprios discos magnéticos são relativamente resistentes a forças magnéticas externas, de forma que ímãs de baixa potência não oferecem grande perigo.

QUE É BIOS?

BIOS


O BIOS contém todo o software básico, necessário para inicializar a placa-mãe, checar os dispositivos instalados e carregar o sistema operacional, o que pode ser feito a partir do HD, CD-ROM, pendrive, ou qualquer outra mídia disponível. O BIOS inclui também o Setup, o software que permite configurar as diversas opções oferecidas pela placa. O processador é programado para procurar e executar o BIOS sempre que o micro é ligado, processando-o da mesma forma que outro software qualquer. É por isso que a placa-mãe não funciona "sozinha", você precisa ter instalado o processador e os pentes de memória para conseguir acessar o Setup. :)

Por definição, o BIOS é um software, mas, como de praxe, ele fica gravado em um chip espetado na placa-mãe. Na grande maioria dos casos, o chip combina uma pequena quantidade de memória Flash (256, 512 ou 1024 KB), o CMOS, que é composto por de 128 a 256 bytes de memória volátil e o relógio de tempo real. Nas placas antigas era utilizado um chip DIP, enquanto nas atuais é utilizado um chip PLCC (plastic leader chip carrier), que é bem mais compacto:


Chip PLCC que armazena o BIOS da placa-mãe

O CMOS serve para armazenar as configurações do setup. Como elas representam um pequeno volume de informações, ele é bem pequeno em capacidade. Assim como a memória RAM principal, ele é volátil, de forma que as configurações são perdidas quando a alimentação elétrica é cortada. Por isso, toda placa-mãe inclui uma bateria, que mantém as configurações quando o micro é desligado.

A mesma bateria alimenta também o relógio de tempo real (real time clock), que, apesar do nome pomposo, é um relógio digital comum, que é o responsável por manter atualizada a hora do sistema, mesmo quando o micro é desligado.

Se você prestou atenção nos três parágrafos anteriores, deve estar se perguntando por que as configurações do Setup não são armazenadas diretamente na memória Flash, em vez de usar o CMOS, que é volátil. Isso seria perfeitamente possível do ponto de vista técnico, mas a idéia de usar memória volátil para guardar as configurações é justamente permitir que você possa zerar as configurações do Setup (removendo a bateria, ou mudando a posição do jumper) em casos onde o micro deixar de inicializar por causa de alguma configuração incorreta.

Um caso clássico é tentar fazer um overclock muito agressivo e o processador passar a travar logo no início do boot, sem que você tenha chance de entrar no setup e desfazer a alteração. Atualmente basta zerar o setup para que tudo volte ao normal, mas, se as configurações fossem armazenadas na memória Flash, a coisa seria mais complicada.

Para zerar o CMOS, você precisa apenas cortar o fornecimento de energia para ele. Existem duas formas de fazer isso. A primeira é (com o micro desligado) remover a bateria da placa-mãe e usar uma moeda para fechar um curto entre os dois contatos da bateria durante 15 segundos. Isso garante que qualquer carga remanescente seja eliminada e o CMOS seja realmente apagado. A segunda é usar o jumper "Clear CMOS", que fica sempre posicionado próximo à bateria. Ele possui duas posições possíveis, uma para uso normal e outra para apagar o CMOS ("discharge", ou "clear CMOS"). Basta mudá-lo de posição durante 15 segundos e depois recolocá-lo na posição original.

Uma dica é que muitas placas vêm de fábrica com o jumper na posição "discharge", para evitar que a carga da bateria seja consumida enquanto a placa fica em estoque. Ao montar o micro, você precisa se lembrar de verificar e, caso necessário, mudar a posição do jumper, caso contrário a placa não funciona, ou exibe uma mensagem de erro durante o boot e não salva as configurações do Setup.


Jumper Clear CMOS

Como todo software, o BIOS possui bugs, muitos por sinal. De tempos em tempos, os fabricantes disponibilizam versões atualizadas, corrigindo problemas, adicionando compatibilidade com novos processadores (e outros componentes) e, em alguns casos, adicionando novas opções de configuração no Setup. É muito comum que você precise atualizar o BIOS da placa para que ela funcione em conjunto com novos processadores, de fabricação mais recente que a placa-mãe.

Atualizar o BIOS consiste em dar boot através de um disquete ou CD-ROM, contendo o software que faz a gravação, indicar a localização do arquivo com a nova imagem e deixar que ele regrave a memória Flash com o novo código.

O primeiro passo é visitar a área de suporte ou downloads do site do fabricante e procurar por atualizações para a sua placa-mãe. Se você usa Windows, aproveite para verificar se não estão disponíveis novas versões dos drivers, que também podem corrigir problemas e adicionar novos recursos.

Por exemplo, uma Asus K8N4-E SE, que testei certa vez, tinha um problema estranho com a placa de rede, que parava de funcionar aleatoriamente depois de algumas horas de uso contínuo, que foi solucionado com a atualização do BIOS da versão 0106 para a 0110.

Para baixar o arquivo, acessei a área de download do site da Asus (http://support.asus.com/download/) e, no menu de busca por atualizações, selecionei as opções "Motherboard > Socket 754 > K8N4-E SE > BIOS", chegando ao arquivo:

Muitos fabricantes ainda disponibilizam disquetes de boot, contendo uma versão reduzida do FreeDOS ou MS-DOS, mas muitos já passaram a disponibilizar CDs de boot (basta gravar a imagem .iso usando o Nero, K3B ou outro programa de gravação e dar boot), o que elimina a necessidade de ter que instalar um drive de disquetes na máquina só para poder atualizar o BIOS.

Uma idéia nova, que foi inaugurada pela Asus e vem sendo adotada por cada vez mais fabricantes, é incluir o utilitário de atualização diretamente no próprio BIOS. Nesse caso, você só precisa pressionar uma combinação de teclas durante o boot e indicar a localização do arquivo de atualização. Na maioria das placas, ele precisa ser gravado num disquete ou CD-ROM (você precisa queimar um CD, colocando o arquivo no diretório raiz), mas algumas já suportam também o uso de pendrives e cartões de memória instalados com a ajuda de um adaptador USB.

Na maioria dos casos, você pode acessar o utilitário de atualização pressionando ALT+F2 durante a contagem de memória. Em muitas placas, a opção também fica disponível através do Setup. Nas placas da Asus, por exemplo, ela fica dentro do menu "Tools". Dentro do programa, basta indicar o arquivo a ser gravado. Eles geralmente possuem em torno de 512 KB e utilizam a extensão ".BIN" ou ".ROM":


Atualização de BIOS

Atualizar o BIOS é sempre um procedimento potencialmente perigoso, já que sem ele a placa não funciona. Na grande maioria dos casos, o programa também oferece a opção de salvar um backup do BIOS atual antes de fazer a atualização. Esse é um passo importante, pois se algo sair errado, ou você tentar gravar uma atualização para um modelo de placa diferente, ainda restará a opção de reverter o upgrade, regravando o backup da versão antiga.

A maioria das placas atuais incorpora sistemas de proteção, que protegem áreas essenciais do BIOS, de forma que, mesmo que acabe a energia no meio da atualização, ou você tente gravar o arquivo errado, a placa ainda preservará as funções necessárias para que você consiga reabrir o programa de gravação e terminar o serviço. Em alguns casos, a placa chega a vir com um "BIOS de emergência", um chip extra, com uma cópia do BIOS original, que você pode instalar na placa em caso de problemas.

Placas antigas não possuem essas camadas de proteção, de forma que um upgrade malsucedido podia realmente inutilizar a placa. Nesses casos, a solução era remover o chip e levá-lo a alguém que tivesse um gravador de EEPROM. Depois de regravado, o chip era reinstalado na placa e tudo voltava ao normal. Ou seja, mesmo nesses casos, a placa não era realmente danificada, ficava apenas "fora de serviço".

Um truque muito usado era utilizar uma placa-mãe igual, ou pelo menos de modelo similar, para regravar o BIOS da placa danificada. Nesses casos, você dava boot com o disquete ou CD de atualização (na placa boa), removia o chip com o BIOS e instalava no lugar o chip da placa danificada (com o micro ligado), dando prosseguimento ao processo de regravação. Dessa forma, você usava a placa "boa" para regravar o BIOS da placa "ruim". Naturalmente, a troca precisava ser feita com todo o cuidado, já que um curto nos contatos podia inutilizar a placa-mãe.

Concluindo, existem também programas de gravação para Windows, que são incluídos nos CDs de drivers de muitas placas. Eles são mais fáceis de usar, mas fazer a atualização através deles é considerado menos seguro, já que, dentro do Windows e com outros programas e serviços rodando, a possibilidade de algo inesperado acontecer é maior.

Hoje em dia, a maioria dos dispositivos incluindo o HD, drive óptico, placa wireless e placa de vídeo possuem um software de inicialização, similar ao BIOS da placa-mãe. Ele pode ser gravado diretamente no dispositivo, em um chip de memória Flash, ou mesmo em algum tipo de memória ROM, ou ser incorporado ao driver. Essa segunda solução vem sendo cada vez mais adotada pelos fabricantes, pois permite eliminar o chip de memória, reduzindo o custo. É por isso que, muitas vezes (sobretudo ao tentar ativar sua placa wireless ou scanner no Linux), você precisa baixar, além do driver ou módulo necessário, também os arquivos que compõem o firmware da placa.

Hardware x Software


Os computadores são muito bons em armazenar informações e fazer cálculos, mas não são capazes de tomar decisões sozinhos.
Sempre existe um ser humano orientando o computador e dizendo a ele o que fazer a cada passo. Seja você mesmo, teclando e usando o mouse, ou, num nível mais baixo, o programador que escreveu os programas que você está usando.

Chegamos então aos softwares, gigantescas cadeias de instruções que permitem que os computadores façam coisas úteis. É aí que entra o sistema operacional e, depois dele, os programas que usamos no dia-a-dia.

Um bom sistema operacional é invisível. A função dele é detectar e utilizar o hardware da máquina de forma eficiente, fornecendo uma base estável sobre a qual os programas que utilizamos no cotidiano possam ser usados. Como diz Linus Torvalds, as pessoas não usam o sistema operacional, usam os programas instalados. Quando você se lembra que está usando um sistema operacional, é sinal de que alguma coisa não está funcionando como deveria.

O sistema operacional permite que o programador se concentre em adicionar funções úteis, sem ficar se preocupando com que tipo de placa de vídeo ou placa de som você tem. O programa diz que quer mostrar uma janela na tela e ponto; o modelo de placa de vídeo que está instalado e que comandos são necessários para mostrar a janela são problema do sistema operacional.

Para acessar a placa de vídeo, ou qualquer outro componente instalado, o sistema operacional precisa de um driver, que é um pequeno programa que trabalha como um intérprete, permitindo que o sistema converse com o dispositivo. Cada placa de vídeo ou som possui um conjunto próprio de recursos e comandos que permitem usá-los. O driver converte esses diferentes comandos em comandos padrão, que são entendidos pelo sistema operacional.

Embora as duas coisas sejam igualmente importantes, existe uma distinção entre o "hardware", que inclui todos os componentes físicos, como o processador, memória, placa-mãe, etc. e o "software", que inclui o sistema operacional, os programas e todas as informações armazenadas. Como diz a sabedoria popular, "hardware é o que você chuta, e software é o que você xinga". :p

AS MOTHERBOARDS

Placa-mãe


A placa-mãe é o componente mais importante do micro, pois é ela a responsável pela comunicação entre todos os componentes. Pela enorme quantidade de chips, trilhas, capacitores e encaixes, a placa-mãe também é o componente que, de uma forma geral, mais dá defeitos. É comum que um slot PCI pare de funcionar (embora os outros continuem normais), que instalar um pente de memória no segundo soquete faça o micro passar a travar, embora o mesmo pente funcione perfeitamente no primeiro e assim por diante.

A maior parte dos problemas de instabilidade e travamentos são causados por problemas diversos na placa-mãe, por isso ela é o componente que deve ser escolhido com mais cuidado. Em geral, vale mais a pena investir numa boa placa-mãe e economizar nos demais componentes, do que o contrário.

A qualidade da placa-mãe é de longe mais importante que o desempenho do processador. Você mal vai perceber uma diferença de 20% no clock do processador, mas com certeza vai perceber se o seu micro começar a travar ou se a placa de vídeo onboard não tiver um bom suporte no Linux, por exemplo.

Ao montar um PC de baixo custo, economize primeiro no processador, depois na placa de vídeo, som e outros periféricos. Deixe a placa-mãe por último no corte de despesas.

Não se baseie apenas na marca da placa na hora de comprar, mas também no fornecedor. Como muitos componentes entram no país ilegalmente, "via Paraguai", é muito comum que lotes de placas remanufaturadas ou defeituosas acabem chegando ao mercado. Muita gente compra esses lotes, vende por um preço um pouco abaixo do mercado e depois desaparece. Outras lojas simplesmente vão vendendo placas que sabem ser defeituosas até acharem algum cliente que não reclame. Muitas vezes os travamentos da placa são confundidos com "paus do Windows", de forma que sempre aparece algum desavisado que não percebe o problema.

Antigamente existia a polêmica entre as placas com ou sem componentes onboard. Hoje em dia isso não existe mais, pois todas as placas vêm com som e rede onboard. Apenas alguns modelos não trazem vídeo onboard, atendendo ao público que vai usar uma placa 3D offboard e prefere uma placa mais barata ou com mais slots PCI do que com o vídeo onboard que, de qualquer forma, não vai usar.

Os conectores disponíveis na placa estão muito relacionados ao nível de atualização do equipamento. Placas atuais incluem conectores PCI Express x16, usados para a instalação de placas de vídeo offboard, slots PCI Express x1 e slots PCI, usados para a conexão de periféricos diversos. Placas antigas não possuem slots PCI Express nem portas SATA, oferecendo no lugar um slot AGP para a conexão da placa de vídeo e duas ou quatro portas IDE para a instalação dos HDs e drives ópticos.

Temos ainda soquetes para a instalação dos módulos de memória, o soquete do processador, o conector para a fonte de alimentação e o painel traseiro, que agrupa os encaixes dos componentes onboard, incluindo o conector VGA ou DVI do vídeo, conectores de som, conector da rede e as portas USB.

O soquete (ou slot) para o processador é a principal característica da placa-mãe, pois indica com quais processadores ela é compatível. Você não pode instalar um Athlon X2 em uma placa soquete A (que é compatível com os antigos Athlons, Durons e Semprons antigos), nem muito menos encaixar um Sempron numa placa soquete 478, destinada aos Pentium 4 e Celerons antigos. O soquete é na verdade apenas um indício de diferenças mais "estruturais" na placa, incluindo o chipset usado, o layout das trilhas de dados, etc. É preciso desenvolver uma placa quase que inteiramente diferente para suportar um novo processador.

Existem dois tipos de portas para a conexão do HD: as portas IDE tradicionais, de 40 pinos (chamadas de PATA, de "Parallel ATA") e os conectores SATA (Serial ATA), que são muito menores. Muitas placas recentes incluem um único conector PATA e quatro conectores SATA. Outras incluem as duas portas IDE tradicionais e dois conectores SATA, e algumas já passam a trazer apenas conectores SATA, deixando de lado os conectores antigos.

Existem ainda algumas placas "legacy free", que eliminam também os conectores para o drive de disquete, portas seriais e porta paralela, incluindo apenas as portas USB. Isso permite simplificar o design das placas, reduzindo o custo de produção para o fabricante.


Placa soquete 775

Tudo isso é montado dentro do gabinete, que contém outro componente importante: a fonte de alimentação. A função da fonte é transformar a corrente alternada da tomada em corrente contínua (AC) já nas tensões corretas, usadas pelos componentes. Ela serve também como uma última linha de defesa contra picos de tensão e instabilidade na corrente, depois do nobreak ou estabilizador.

Embora quase sempre relegada a último plano, a fonte é outro componente essencial num PC atual. Com a evolução das placas de vídeo e dos processadores, os PCs consomem cada vez mais energia. Na época dos 486, as fontes mais vendidas tinham 200 watts ou menos, enquanto as atuais têm a partir de 450 watts. Existem ainda fontes de maior capacidade, especiais para quem quer usar duas placas 3D de ponta em SLI, que chegam a oferecer 1000 watts!

Uma fonte subdimensionada não é capaz de fornecer energia suficiente nos momentos de pico, causando desde erros diversos, provocados por falhas no fornecimento (o micro trava ao tentar rodar um game pesado, ou trava sempre depois de algum tempo de uso, por exemplo), ou, em casos mais graves, até mesmo danos aos componentes. Uma fonte de má qualidade, obrigada a trabalhar além do suportado, pode literalmente explodir, danificando a placa-mãe, memórias, HDs e outros componentes sensíveis.


Micro montado

Evite comprar fontes muito baratas e, ao montar um micro mais parrudo, invista numa fonte de maior capacidade.

Não se esqueça também do aterramento, que é outro fator importante, mas freqüentemente esquecido. O fio terra funciona como uma rota de fuga para picos de tensão provenientes da rede elétrica. A eletricidade flui de uma forma similar à água: vai sempre pelo caminho mais fácil. Sem ter para onde ir, um raio vai torrar o estabilizador, a fonte de alimentação e, com um pouco mais de azar, a placa-mãe e o resto do micro. O fio terra evita isso, permitindo que a eletricidade escoe por um caminho mais fácil, deixando todo o equipamento intacto.

O fio terra é simplesmente uma barra de cobre com dois a três metros de comprimento, que é cravada no solo, no meio de um buraco de 20 cm de largura, preenchido com sal grosso e carvão. Naturalmente, instalar o terra é trabalho para o eletricista, já que um aterramento mal feito pode ser mais prejudicial que não ter aterramento algum. Não acredite em crendices como usar um prego fincado na parede ou um cano metálico como aterramento.

Sem o terra, o filtro de linha ou estabilizador perde grande parte de sua função, tornando-se mais um componente decorativo, que vai ser torrado junto com o resto do equipamento, do que uma proteção real.

Nas grandes cidades, é relativamente raro que os micros realmente queimem por causa de raios, pois os transformadores e disjuntores oferecem uma proteção razoável. Mas, pequenos picos de tensão são responsáveis por pequenos danos nos pentes de memória e outros componentes sensíveis, danos que se acumulam, comprometendo a estabilidade e abreviando a vida útil do equipamento.

A longo prazo, o investimento na instalação do terra e melhorias na instalação elétrica acabam se pagando com juros, principalmente se você tem mais de um micro.