Pesquisar este blog

terça-feira, 29 de dezembro de 2015

Vença o medo de trabalhar com manutenção.

Muitos dos que começam a estudar manutenção de computadores, se deparam com um problema ao sair do conforto do laboratório de informática.
Mas o que acontece com os aspirantes a técnico? Por que muitos até desistem da profissão antes mesmo de começar?

Ser técnico exige uma combinação perfeita de conhecimento tácito e teórico. O que se aprende na teoria só terá valor se vivenciado na prática, onde se construirá o acervo clínico com o qual serão dirimidas dúvidas e se reduzirão prazos de execução, em função de se ter plena convicção do que está ocorrendo e oque deverá ser feito para corrigir. Mas o medo da maioria quando começa é sempre o mesmo: QUEBRAR O DISPOSITIVO ou CORROMPER O SISTEMA OPERACIONAL.
Mas há solução para isso? Sim. E é algo que a tecnologia não pode fazer por ninguém. É um "software" de caráter chamado HUMILDADE. De posse dele, o técnico será maduro o suficiente para quando se deparar com algo inédito ou que não tenha noção, pedir auxílio de quem já está há mais tempo na estrada.
Admitir não saber algo é melhor do que assumir o risco de errar por arrogância, ou desistir de um sonho para evitar contratempos.
Qualquer dúvida recorra a fóruns, comunidades e a amigos do ramo. Não é vergonha nenhuma ser humilde. Poupa tempo e evita frustrações.

Como recuperar arquivos que viraram atalho no pendrive com o CMD

Por Leo Reis



Uma das coisas mais chatas dessa vida é colocar o pendrive no pc e voilà!
Tudo virou atalho. Mas como solucionar tamanha dor de cabeça?

Vamos entender primeiro o que se passa.
   Provavelmente seu dispositivo foi contaminado por um vírus que corrompe os atributos dos arquivos, deixando-os ocultos, deixando apenas atalhos no lugar. Em alguns casos ao clicar no atalho o arquivo às vezes abre, já em outros nada acontece e você ainda colabora para disseminar a infecção.
 Mas vamos ver como solucionar usando o CMD.

Passo 1: Antes de qualquer coisa procure um pc ou notebook confiável. Rode o antivírus antes de inserir o pendrive.

Passo 2: Abra o dispositivo e não clique em qualquer que seja o atalho. Vá em opções de pasta e marque a opção "Exibir pastas e arquivos ocultos", na guia exibir.

Passo 3: No menu iniciar (versões 7 e 10 ) ou win + x  digite CMDclique com o botão direito sobre o ícone e execute como administrador.

Passo 4: Identifique a letra correspondente ao volume do pendrive que deseja corrigir.

Passo 5: Digite o seguinte comando no CMDattrib -h -r -s /s /d LETRADOVOLUME:\*.*, onde você irá substituir LETRADOVOLUME  pela letra correspondente à sua unidade a ser limpa. Dê enter. Após isso os vírus serão eliminados do pendrive pelo antivírus. Caso não apareçam seus arquivos, digite no CMD:  LETRADOVOLUME:  e dê enter. Depois digite: ATTRIB  -S  -R  -H  /D /S *   em seguida dê enter novamente e seus arquivos aparecerão.



Passo 6: Por fim instale um programa chamado USB Security a fim de proteger o pc e os pendrives utilizados.

terça-feira, 18 de dezembro de 2012


CISC X RISC



Sempre houve uma grande polêmica em torno de qual dessas plataformas é melhor. Na verdade, você já deve ter ouvido muito boatos como "Os Macs são mais rápidos por que tem chips RISC" ou algo do gênero. O objetivo deste artigo é falar um pouco sobre as duas plataformas e como elas coexistem atualmente.

Um processador CISC (Complex Instruction Set Computer, ou "computador com um conjunto complexo de instruções"), é capaz de executar várias centenas de instruções complexas diferentes, sendo extremamente versátil. Exemplos de processadores CISC são o 386 e o 486.

No começo da década de 80, a tendência era construir chips com conjuntos de instruções cada vez mais complexos. Alguns fabricantes porém, resolveram seguir o caminho oposto, criando o padrão RISC (Reduced Instruction Set Computer, ou "computador com um conjunto reduzido de instruções"). Ao contrário dos complexos CISC, os processadores RISC são capazes de executar apenas algumas poucas instruções simples. Justamente por isso, os chips baseados nesta arquitetura são mais simples e muito mais baratos. Outra vantagem dos processadores RISC, é que, por terem um menor número de circuitos internos, podem trabalhar a freqüências mais altas. Um exemplo são os processadores Alpha, que em 97 já operavam a 600 MHz.

Pode parecer estranho que um chip que é capaz de executar algumas poucas instruções, possa ser considerado por muitos, mais rápido do que outro que executa centenas delas, seria como comparar um professor de matemática com alguém que sabe apenas as quatro operações. Mas o que acontece, é que um processador RISC é capaz de executar tais instruções muito mais rapidamente. A idéia principal, é que apesar de um processador CISC ser capaz de executar centenas de instruções diferentes, apenas algumas são usadas freqüentemente. Poderíamos então criar um processador otimizado para executar apenas estas instruções simples que são usadas mais freqüentemente. Em conjunto com um software adequado, este processador seria capaz de desempenhar quase todas as funções de um processador CISC, acabando por compensar suas limitações com uma maior velocidade de processamento.

é indiscutível, porém, que em instruções complexas os processadores CISC saem-se melhor. Por isso, ao invés da vitória de uma das duas tecnologias, atualmente vemos processadores híbridos, que são essencialmente processadores CISC, mas incorporam muitos recursos encontrados nos processadores RISC (ou vice-versa).

Apesar de por questões de Marketing, muitos fabricantes ainda venderem seus chips, como sendo "Processadores RISC", não existe praticamente nenhum processador atualmente que siga estritamente uma das duas filosofias. Tanto processadores da família x86, como o Pentium II, Pentium III e AMD Athlon, quanto processadores supostamente RISC, como o MIPS R10000 e o HP PA-8000, ou mesmo o G4, utilizado nos Macintoshs misturam características das duas arquiteturas, por simples questão de performance. Por que ficar de um lado ou de outro, se é possível juntar o melhor dos dois mundos? A última coisa que os fabricantes de processadores são é teimosos, sempre que aparece uma solução melhor, a antiga e abandonada.

Examinando de um ponto de vista um pouco mais prático, a vantagem de uma arquitetura CISC é que já temos muitas das instruções guardadas no próprio processador, o que facilita o trabalho dos programadores, que já dispõe de praticamente todas as instruções que serão usadas em seus programas. No caso de um chip estritamente RISC, o programador já teria um pouco mais de trabalho, pois como disporia apenas de instruções simples, teria sempre que combinar várias instruções sempre que precisasse executar alguma tarefa mais complexa. Seria mais ou menos como se você tivesse duas pessoas, uma utilizando uma calculadora comum, e outra utilizando uma calculadora cientifica. Enquanto estivessem sendo resolvidos apenas cálculos simples, de soma, subtração, etc. quem estivesse com a calculadora simples poderia até se sair melhor, mas ao executar cálculos mais complicados, a pessoa com a calculadora científica disporia de mais recursos.

Nos chips atuais, que são na verdade misturas das duas arquiteturas, juntamos as duas coisas. Internamente, o processador processa apenas instruções simples. Estas instruções internas, variam de processador para processador, são como uma luva, que se adapta ao projeto do chip. As instruções internas de um K6 são diferentes das de um Pentium por exemplo. Sobre estas instruções internas, temos um circuito decodificador, que converte as instruções complexas utilizadas pelos programas em várias instruções simples que podem ser entendidas pelo processador. Estas instruções complexas sim, são iguais em todos os processadores usados em micros PC. é isso que permite que um Athlon e um Pentium III sejam compatíveis entre sí.

O conjunto básico de instruções usadas em micros PC é chamado de conjunto x86. Este conjunto é composto por um total de 187 instruções, que são as utilizadas por todos os programas. Além deste conjunto principal, alguns processadores trazem também instruções alternativas, que permitem aos programas executar algumas tarefas mais rapidamente do que seria possível usando as instruções x86 padrão. Alguns exemplos de conjuntos alternativos de instruções são o MMX (usado apartir do Pentium MMX), o 3D-NOW! (usado pelos processadores da AMD, apartir do K6-2), e o SSE (suportado pelo Pentium III).

                                                                                                                        FONTE:http://www.hardware.com.br/artigos/risc-cisc/



segunda-feira, 3 de dezembro de 2012


Processadores: clock, bits, memória cache e múltiplos núcleos


O que é processador?

O processador (CPU) é um chip normalmente feito de silício que responde pela execução das tarefas cabíveis a um computador. Para compreender como um processador trabalha, é conveniente dividirmos um computador em três partes: processador, memória e um conjunto de dispositivos de entrada e saída (ou I/O, de Input/Output). Neste último, encontra-se qualquer item responsável pela entrada ou saída de dados no computador, como telas, teclados, mouses, impressoras, scanners, discos rígidos, etc. Neste esquema, o processador exerce a função principal, já que cabe a ele o acesso e a utilização da memória e dos dispositivos de entrada e saída para a execução das atividades.
Para entender melhor, suponha que você queira que o seu computador execute um programa (software) qualquer. Em poucas palavras, um programa consiste em uma série de instruções que o processador deve executar para que a tarefa solicitada seja realizada. Para isso, a CPU transfere todos os dados necessários à execução de um dispositivo de entrada e/ou saída - como um disco rígido - para a memória. A partir daí, todo o trabalho é realizado e o que será feito do resultado depende da finalidade programa - o processador pode ser orientado a enviar as informações obtidas para o HD novamente ou para uma impressora, por exemplo.

Barramentos

A imagem a seguir ilustra um esquema hipotético (e bastante abstrato) de comunicação entre o processador, a memória e o conjunto de dispositivos de entrada e saída, representando o funcionamento básico do computador. Note que a conexão entre estes itens é indicada por setas. Isso é feito para que você possa entender a função dos barramentos (bus).
Barramentos em um processador
Barramentos em um processador
De maneira geral, os barramentos são responsáveis pela interligação e comunicação dos dispositivos em um computador. Note que, para o processador se comunicar com a memória e o conjunto de dispositivos de entrada e saída, há três setas, isto é, barramentos: um se chama barramento de endereços (address bus); outro, barramento de dados (data bus); o terceiro, barramento de controle (control bus).
O barramento de endereços, basicamente, indica de onde os dados a serem processados devem ser retirados ou para onde devem ser enviados. A comunicação por este meio é unidirecional, razão pela qual só há seta em uma das extremidades da linha no gráfico que representa a sua comunicação.
Como o nome deixa claro, é pelo barramento de dados que as informações transitam. Por sua vez, o barramento de controle faz a sincronização das referidas atividades, habilitando ou desabilitando o fluxo de dados, por exemplo.
Para você compreender melhor, imagine que o processador necessita de um dado presente na memória. Pelo barramento de endereços, a CPU obtém a localização deste dado dentro da memória. Como precisa apenas acessar o dado, o processador indica pelo barramento de controle que esta é uma operação de leitura. O dado é então localizado e inserido no barramento de dados, por onde o processador, finalmente, o lê.

Clock interno

Em um computador, todas as atividades necessitam de sincronização. O clock interno (ou apenas clock) serve justamente a este fim, ou seja, basicamente, atua como um sinal para sincronismo. Quando os dispositivos do computador recebem o sinal de executar suas atividades, dá-se a esse acontecimento o nome de "pulso de clock". Em cada pulso, os dispositivos executam suas tarefas, param e vão para o próximo ciclo de clock.
A medição do clock é feita em hertz (Hz), a unidade padrão de medidas de frequência, que indica o número de oscilações ou ciclos que ocorre dentro de uma determinada medida de tempo, no caso, segundos. Assim, se um processador trabalha à 800 Hz, por exemplo, significa que ele é capaz de lidar com 800 operações de ciclos de clock por segundo.
Repare que, para fins práticos, a palavra kilohertz (KHz) é utilizada para indicar 1000 Hz, assim como o termomegahertz (MHz) é usado para referenciar 1000 KHz (ou 1 milhão de hertz). De igual forma, gigahertz (GHz) é a denominação usada quando se tem 1000 MHz e assim por diante. Com isso, se um processador conta com, por exemplo, uma frequência de 800 MHz, significa que pode trabalhar com 800 milhões de ciclos por segundo.
Neste ponto, você provavelmente deve ter entendido que é daqui que vem expressões como "processador Intel Core i5 de 2,8 GHz", por exemplo.

FSB (Front Side Bus)

Você já sabe: as frequências com as quais os processadores trabalham são conhecidas como clock interno. Mas, os processadores também contam com o que chamamos de clock externo ou Front Side Bus (FSB)ou, ainda, barramento frontal.
O FSB existe porque, devido a limitações físicas, os processadores não podem se comunicar com o chipset e com a memória RAM - mais precisamente, com o controlador da memória, que pode estar na ponte norte (northbridge) do chipset - utilizando a mesma velocidade do clock interno. Assim, quando esta comunicação é feita, o clock externo, de frequência mais baixa, é que entra em ação.
Note que, para obter o clock interno, o processador faz uso de um procedimento de multiplicação do clock externo. Para entender melhor, suponha que um determinado processador tenha clock externo de 100 MHz. Como o seu fabricante indica que este chip trabalha à 1,6 GHz (ou seja, tem clock interno de 1,6 GHz), seu clock externo é multiplicado por 16: 100 x 16 = 1600 MHz ou 1,6 GHz.
Front Side Bus
Front Side Bus
É importante deixar claro, no entanto, que se dois processadores diferentes - um da Intel e outro da AMD, por exemplo - tiverem clock interno de mesmo valor - 3,2 GHz, para exemplificar -, não significa que ambos trabalham com a mesma velocidade. Cada processador tem um projeto distinto e conta com características que determinam o quão rápido podem ser. Assim, um determinado processador pode levar, por exemplo, 2 ciclos de clock para executar uma instrução. Em outro processador, esta mesma instrução pode requerer 3 ciclos.
Vale ressaltar também que muitos processadores - especialmente os mais recentes - transferem 2 ou mais dados por ciclo de clock, dando a entender que um chip que realiza, por exemplo, transferência de 2 dados por ciclo e que trabalha com clock externo de 133 MHz, o faz à 266 MHz. Por este e outros motivos, é um erro considerar apenas o clock interno como parâmetro de comparação entre processadores diferentes.

QuickPath Interconnect (QPI) e HyperTransport

Dependendo do processador, outra tecnologia pode ser utilizada no lugar do FSB. Um exemplo é o QuickPath Interconnect (QPI), utilizado nos chips mais recentes da Intel, e o HyperTransport, aplicado nas CPUs da AMD.
Estas mudanças de tecnologias são necessárias porque, com o passar do tempo, a busca por melhor desempenho faz com que os processadores sofram alterações consideráveis em sua arquitetura.
Uma dessas mudanças diz respeito ao já mencionado controlador de memória, circuito responsável por "intermediar" o uso da memória RAM pelo processador. Nas CPUs mais atuais da Intel e da AMD, o controlador está integrado ao próprio chip e não mais ao chipset localizado na placa-mãe.
Com esta integração, os processadores passam a ter um barramento direto à memória. O QPI e o HyperTransport acabam então ficando livres para fazer a comunicação com os recursos que ainda são intermediados pelo chipset, como dispositivos de entrada e saída.
O interessante é que tanto o QuickPath quanto o HyperTransport trabalham com duas vias de comunicação, de forma que o processador possa transmitir e receber dados ao mesmo tempo, já que cada atividade é direcionada a uma via, beneficiando o aspecto do desempenho. No FSB isso não acontece, porque há apenas uma única via para a comunicação.
QPI / HyperTransport
QPI / HyperTransport
Estas tecnologias sofrem atualizações quando novas famílias de processadores são lançadas, fazendo que com a sua frequência (clock) e a largura de banda (quantidade de bits que podem ser transmitidas por vez), por exemplo, tenham limites maiores em cada nova versão.

Bits dos processadores

O número de bits é outra importante característica dos processadores e, naturalmente, tem grande influência no desempenho deste dispositivo. Processadores mais antigos, como o 286, trabalhavam com 16 bits. Durante muito tempo, no entanto, processadores que trabalham com 32 bits foram muitos comuns, como as linhas Pentium, Pentium II, Pentium III e Pentium 4 da Intel ou Athlon XP e Duron da AMD. Alguns modelos de 32 bits ainda são encontrados no mercado, todavia, o padrão atual são os processadores de 64 bits, como os da linha Core i7, da Intel, ou Phenom, da AMD.
Em resumo, quanto mais bits internos o processador possuir, mais rapidamente ele poderá fazer cálculos e processar dados em geral, dependendo da execução a ser feita. Isso acontece porque os bits dos processadores representam a quantidade de dados que os circuitos desses dispositivos conseguem trabalhar por vez.
Um processador com 16 bits, por exemplo, pode manipular um número de valor até 65.535. Se este processador tiver que realizar uma operação com um número de valor 100.000, terá que fazer a operação em duas partes. No entanto, se um chip trabalha a 32 bits, ele pode manipular números de valor até 4.294.967.295 em uma única operação. Como este valor é superior a 100.000, a operação pode ser realizada em uma única vez.


Memória cache

Os processadores passam por aperfeiçoamentos constantes, o que os tornam cada vez mais rápidos e eficientes, como você já sabe. No entanto, o mesmo não se pode dizer das tecnologias de memória RAM. Embora estas também passem por constantes melhorias, não conseguem acompanhar os processadores em termos de velocidade. Assim sendo, de nada adianta ter um processador rápido se este tem o seu desempenho comprometido por causa da "lentidão" da memória.
Uma solução para este problema seria equipar os computadores com um tipo de memória mais sofisticado, como a SRAM (Static RAM). Esta se diferencia das memórias convencionais DRAM (Dynamic RAM) por serem muito rápidas. Por outro lado, são muito mais caras e não contam com o mesmo nível de miniaturização, sendo, portanto, inviáveis. Apesar disso, a ideia não foi totalmente descartada, pois foi adaptada para o que conhecemos como memória cache.
A memória cache consiste em uma pequena quantidade de memória SRAM embutida no processador. Quando este precisa ler dados na memória RAM, um circuito especial chamado "controlador de cache" transfere blocos de dados muito utilizados da RAM para a memória cache. Assim, no próximo acesso do processador, este consultará a memória cache, que é bem mais rápida, permitindo o processamento de dados de maneira mais eficiente.
Se o dado estiver na memória cache, o processador a utiliza, do contrário, irá buscá-lo na memória RAM. Perceba que, com isso, a memória cache atua como um intermediário, isto é, faz com que o processador nem sempre necessite chegar à memória RAM para acessar os dados dos quais necessita. O trabalho da memória cache é tão importante que, sem ela, o desempenho de um processador pode ser seriamente comprometido.
Os processadores trabalham, basicamente, com dois tipos de cache: cache L1 (Level 1 - Nível 1) e cache L2(Level 2 - Nível 2). Este último é, geralmente mais simples, costuma ser ligeiramente maior em termos de capacidade, mas também um pouco mais lento. O cache L2 passou a ser utilizado quando o cache L1 se mostrou insuficiente.
Antigamente, um tipo se distinguia do outro pelo fato de a memória cache L1 estar localizada junto ao núcleo do processador, enquanto que a cache L2 ficava localizada na placa-mãe. Atualmente, ambos os tipos ficam localizados dentro do chip do processador, sendo que, em muitos casos, a cache L1 é dividida em duas partes: "L1 para dados" e "L1 para instruções".
Vale ressaltar que, dependendo da arquitetura do processador, é possível encontrar modelos que contam com um terceiro nível de cache (L3). O processador Intel Core i7 3770, por exemplo, possui caches L1 e L2 relativamente pequenos para cada núcleo (o aspecto dos múltiplos núcleos é explicado no próximo tópico): 64 KB e 256 KB, respectivamente. No entanto, o cache L3 é expressivamente maior - 8 MB - e, ao mesmo tempo, compartilhado por todos os seus quatros núcleos.
Processador Core i7 3770 - Imagem por Intel
Processador Core i7 3770 - Imagem por Intel
Mas o cache L3 não é, necessariamente, novidade: a AMD chegou a ter um processador em 1999 chamado K6-III que contava com cache L1 e L2 internamente, característica incomum à época, já que naquele tempo o cache L2 se localizava na placa-mãe, como já explicado. Com isso, esta última acabou assumindo o papel de cache L3.

Processadores com dois ou mais núcleos

Talvez você não saiba, mas é possível encontrar no mercado placas-mãe que contam com dois ou mais slots (encaixes) para processadores. A maioria esmagadora destas placas são usadas em computadores especiais, como servidores e workstations, equipamentos direcionados a aplicações que exigem muito processamento. Para atividades domésticas e de escritório, no entanto, computadores com dois ou mais processadores são inviáveis devido aos elevados custos que arquiteturas do tipo possuem, razão pela qual é conveniente a estes segmentos o uso de processadores cada vez mais rápidos.
Até um passado não muito distante, o usuário tinha noção do quão rápido eram os processadores de acordo com a taxa de seu clock interno. O problema é que, quando um determinado valor de clock é alcançado, torna-se mais difícil desenvolver outro chip com clock maior. Limitações físicas e tecnológicas são os principais motivos para isso. Uma delas é a questão da temperatura: teoricamente, quanto mais megahertz um processador tiver, mais calor o dispositivo gerará.
Uma das formas encontradas pelos fabricantes para lidar com esta limitação consiste em fabricar e disponibilizar processadores com dois núcleos (dual core), quatro núcleos (quad core) ou mais (multi core). Mas, o que isso significa?
CPUs deste tipo contam com dois ou mais núcleos distintos no mesmo circuito integrado, como se houvesse dois (ou mais) processadores dentro de um chip. Assim, o dispositivo pode lidar com dois processos por vez (ou mais), um para cada núcleo, melhorando o desempenho do computador como um todo.
Note que, em um chip de único núcleo (single core), o usuário pode ter a impressão de que vários processos são executados simultaneamente, já que a máquina está quase sempre executando mais de uma aplicação ao mesmo tempo. Na verdade, o que acontece é que o processador dedica determinados intervalos de tempo a cada processo e isso acontece de maneira tão rápida, que se tem a impressão de processamento simultâneo.
Processadores multi core oferecem várias vantagens: podem realizar duas ou mais tarefas ao mesmo; um núcleo pode trabalhar com uma velocidade menor que o outro, reduzindo a emissão de calor; ambos podem compartilhar memória cache; entre outros.
A ideia deu tão certo que, hoje, é possível encontrar processadores com dois ou mais núcleos inclusive em dispositivos móveis, como tablets e smartphones. Na verdade, a situação se inverteu em relação aos anos anteriores: hoje, é mais comum encontrar no mercado chips multi core do que processadores single core.
É interessante reparar que os núcleos de um processador não precisam ser utilizados todos ao mesmo tempo. Além disso, apesar de serem tecnicamente iguais, é possível fazer com que determinados núcleos funcionem de maneira alterada em relação aos outros.
Um exemplo disso é a tecnologia Turbo Boost, da Intel: se um processador quad core, por exemplo, tiver dois núcleos ociosos, os demais podem entrar automaticamente em um modo "turbo" para que suas frequências sejam aumentadas, acelerando a execução do processo em que trabalham.
A imagem abaixo exibe uma montagem que ilustra o interior de um processador Intel Core 2 Extreme Quad Core (núcleos destacado na cor amarela):
Processador Core 2 Extreme Quad Core - Imagem original por Intel
Processador Core 2 Extreme Quad Core - Imagem original por Intel

TDP (Termal Design Power)

Se você já olhou um desktop ou um notebook aberto, por exemplo, pode ter reparado que, sobre o processador, há um dispositivo de metal chamado "dissipador" que muitas vezes é acompanhado de uma espécie ventilador (cooler).
Estes dispositivos são utilizados para amenizar o intenso calor gerado pela potência, isto é, pelo trabalho do processador - se este aspecto não for controlado, o computador pode apresentar instabilidade e até mesmo sofrer danos.
Acontece que cada modelo de processador possui níveis diferentes de potência, principalmente porque esta característica está diretamente ligada ao consumo de energia: pelo menos teoricamente, quanto mais eletricidade for utilizada, maior será o calor resultante.
É aí que o TDP (Thermal Design Power - algo como Energia Térmica de Projeto) entra em cena: trata-se de uma medida em Watts (W) criada para indicar estimativas de níveis máximos de energia que um processador pode requerer e, portanto, dissipar em forma de calor. Assim, o usuário consegue saber quanto determinada CPU exige em relação à potência e fabricantes podem produzir coolers, dissipadores e outros equipamentos de refrigeração adequados a este chip.
Obviamente, quanto menor o TDP de um processador, melhor.

ACP (Average CPU Power)

Criada pela AMD, o ACP (Average CPU Power - algo como Potência Média da CPU) é uma medida bastante semelhante ao TDP, mas é calculada de maneira ligeiramente diferente, de forma a indicar níveis de potência mais próximos do consumo real, em vez de estimativas máximas.
Os valores de ACP também são indicados em Watts. Assim como no TDP, quanto menor o ACP, melhor.

APU (Accelerated Processing Units)

Entre as inovações mais recentes no segmento de processadores está a APU (Accelerated Processing Unit - Unidade de Processamento Acelerado), nome criado para identificar chips que unem as funções de CPU e GPU. Sim, é como se houvesse dois produtos em um só: processador e chip gráfico da placa de vídeo.

Como a APU não tem memória dedicada, tal como as placas de vídeo, é necessário fazer uso da memória RAM do computador. A princípio, esta característica compromete o desempenho, mas o fato de o controlador de memória também estar integrado à CPU, tal como já mencionado, tende a compensar esta peculiaridade. Assim, é possível inclusive o uso de uma GPU mais avançada na APU, apesar de os primeiro modelos serem bastante "básicos" em relação a este aspecto.Há várias vantagens no uso de uma APU: menor consumo de energia, maior facilidade para incluir CPU e GPU em dispositivos portáteis, possibilidade de uso da APU em conjunto com uma placa de vídeo para aumentar o poder gráfico do computador, entre outros.
É válido frisar que o nome APU é amplamente utilizado pela AMD, mas a Intel, apesar de evitar esta denominação, também possui chips do tipo, como mostra a seguinte imagem:
Visão interna (die) de um processador da família Ivy Bridge - Imagem por Intel
Visão interna (die) de um processador da família Ivy Bridge. Observe a posição da GPU e dos demais elementos do chip - Imagem por Intel
                                                                                            FONTE: INFOWESTER           http://www.infowester.com/processadores.php

segunda-feira, 19 de novembro de 2012

Memórias RAM e ROM

 Memória ROM
As memórias ROM (Read-Only Memory - Memória Somente de Leitura) recebem esse nome porque os dados são gravados nelas apenas uma vez. Depois disso, essas informações não podem ser apagadas ou alteradas, apenas lidas pelo computador, exceto por meio de procedimentos especiais. Outra característica das memórias ROM é que elas são do tipo não voláteis, isto é, os dados gravados não são perdidos na ausência de energia elétrica ao dispositivo. Eis os principais tipos de memória ROM:
- PROM (Programmable Read-Only Memory): esse é um dos primeiros tipos de memória ROM. A gravação de dados neste tipo é realizada por meio de aparelhos que trabalham através de uma reação física com elementos elétricos. Uma vez que isso ocorre, os dados gravados na memória PROM não podem ser apagados ou alterados;
- EPROM (Erasable Programmable Read-Only Memory): as memórias EPROM têm como principal característica a capacidade de permitir que dados sejam regravados no dispositivo. Isso é feito com o auxílio de um componente que emite luz ultravioleta. Nesse processo, os dados gravados precisam ser apagados por completo. Somente depois disso é que uma nova gravação pode ser feita;
- EEPROM (Electrically-Erasable Programmable Read-Only Memory): este tipo de memória ROM também permite a regravação de dados, no entanto, ao contrário do que acontece com as memórias EPROM, os processos para apagar e gravar dados são feitos eletricamente, fazendo com que não seja necessário mover o dispositivo de seu lugar para um aparelho especial para que a regravação ocorra;
- EAROM (Electrically-Alterable Programmable Read-Only Memory): as memórias EAROM podem ser vistas como um tipo de EEPROM. Sua principal característica é o fato de que os dados gravados podem ser alterados aos poucos, razão pela qual esse tipo é geralmente utilizado em aplicações que exigem apenas reescrita parcial de informações;
- Flash: as memórias Flash também podem ser vistas como um tipo de EEPROM, no entanto, o processo de gravação (e regravação) é muito mais rápido. Além disso, memórias Flash são mais duráveis e podem guardar um volume elevado de dados.
- CD-ROM, DVD-ROM e afins: essa é uma categoria de discos ópticos onde os dados são gravados apenas uma vez, seja de fábrica, como os CDs de músicas, ou com dados próprios do usuário, quando o próprio efetua a gravação. Há também uma categoria que pode ser comparada ao tipo EEPROM, pois permite a regravação de dados: CD-RW e DVD-RW e afins.

Memória RAM
As memórias RAM (Random-Access Memory - Memória de Acesso Aleatório) constituem uma das partes mais importantes dos computadores, pois são nelas que o processador armazena os dados com os quais está lidando. Esse tipo de memória tem um processo de gravação de dados extremamente rápido, se comparado aos vários tipos de memória ROM. No entanto, as informações gravadas se perdem quando não há mais energia elétrica, isto é, quando o computador é desligado, sendo, portanto, um tipo de memória volátil.
Há dois tipos de tecnologia de memória RAM que são muitos utilizados: estático e dinâmico, isto é, SRAM e DRAM, respectivamente. Há também um tipo mais recente chamado de MRAM. Eis uma breve explicação de cada tipo:
- SRAM (Static Random-Access Memory - RAM Estática): esse tipo é muito mais rápido que as memórias DRAM, porém armazena menos dados e possui preço elevado se considerarmos o custo por megabyte. Memórias SRAM costumam ser utilizadas como cache;
- DRAM (Dynamic Random-Access Memory - RAM Dinâmica): memórias desse tipo possuem capacidade alta, isto é, podem comportar grandes quantidades de dados. No entanto, o acesso a essas informações costuma ser mais lento que o acesso às memórias estáticas. Esse tipo também costuma ter preço bem menor quando comparado ao tipo estático;
- MRAM (Magnetoresistive Random-Access Memory - RAM Magneto-resistiva): a memória MRAM vem sendo estudada há tempos, mas somente nos últimos anos é que as primeiras unidades surgiram. Trata-se de um tipo de memória até certo ponto semelhante à DRAM, mas que utiliza células magnéticas. Graças a isso, essas memórias consomem menor quantidade de energia, são mais rápidas e armazenam dados por um longo tempo, mesmo na ausência de energia elétrica. O problema das memórias MRAM é que elas armazenam pouca quantidade de dados e são muito caras, portanto, pouco provavelmente serão adotadas em larga escala.

Aspectos do funcionamento das memórias RAM
As memórias DRAM são formadas por chips que contém uma quantidade elevadíssima de capacitores e transistores. Basicamente, um capacitor e um transistor, juntos, formam uma célula de memória. O primeiro tem a função de armazenar corrente elétrica por um certo tempo, enquanto que o segundo controla a passagem dessa corrente.
Se o capacitor estiver armazenamento corrente, tem-se um bit 1. Se não estiver, tem-se um bit 0. O problema é que a informação é mantida por um curto de período de tempo e, para que não haja perda de dados da memória, um componente do controlador de memória é responsável pela função de refresh (ou refrescamento), que consiste em regravar o conteúdo da célula de tempos em tempos. Note que esse processo é realizado milhares de vezes por segundo.
O refresh é uma solução, porém acompanhada de "feitos colaterais": esse processo aumenta o consumo de energia e, por consequência, aumenta o calor gerado. Além disso, a velocidade de acesso à memória acaba sendo reduzida.
A memória SRAM, por sua vez, é bastante diferente da DRAM e o principal motivo para isso é o fato de que utiliza seis transistores (ou quatro transistores e dois resistores) para formar uma célula de memória. Na verdade, dois transistores ficam responsáveis pela tarefa de controle, enquanto que os demais ficam responsáveis pelo armazenamento elétrico, isto é, pela formação do bit.
A vantagem desse esquema é que o refresh acaba não sendo necessário, fazendo com que a memória SRAM seja mais rápida e consuma menos energia. Por outro lado, como sua fabricação é mais complexa e requer mais componentes, o seu custo acaba sendo extremamente elevado, encarecendo por demais a construção de um computador baseado somente nesse tipo. É por isso que sua utilização mais comum é como cache, pois para isso são necessárias pequenas quantidades de memória.
Como as memórias DRAM são mais comuns, eles serão o foco deste texto a partir deste ponto.

CAS e RAS
O processador armazena na memória RAM as informações com os quais trabalha, portanto, a todo momento, operações de gravação, eliminação e acesso aos dados são realizadas. Esse trabalho todo é possível graças ao trabalho de um circuito já citado chamado controlador de memória.
Para facilitar a realização dessas operações, as células de memória são organizadas em uma espécie de matriz, ou seja, são orientadas em um esquema que lembra linhas e colunas. O cruzamento de uma certa linha (também chamada de wordline), com uma determinada coluna (também chamada de bitline) forma o que conhecemos como endereço de memória. Assim, para acessar o endereço de uma posição na memória, o controlador obtém o seu valor de coluna, ou seja, o valor RAS (Row Address Strobe) e o seu valor de linha, ou seja, o valor CAS (Column Address Strobe).


Temporização e latência das memórias
Os parâmetros de temporização e latência indicam quanto tempo o controlador de memória gasta com as operações de leitura e escrita. Em geral, quanto menor esse valores, mais rápidas são as operações.
Para que você possa entender, tomemos como exemplo um módulo de memória que informa os seguintes valores em relação à latência: 5-4-4-15-1T. Esse valor está escrito nesta forma: tCL-tRCD-tRP-tRAS-CR. Vejamos o que cada um desses parâmetros significa:
- tCL (CAS Latency): quando uma operação de leitura de memória é iniciada, sinais são acionados para ativar as linhas (RAS) e as colunas (RAS) correspondentes, determinar se a operação é de leitura ou escrita (CS -Chip Select) e assim por diante. O parâmetro CAS Latency indica, em ciclos de clock , qual o período que há entre o envio do sinal CAS e a disponibilização dos respectivos dados. Em outras palavras, é o intervalo existente entre a requisição de um dado pelo processador e a entrega deste pela memória. Assim, no caso do nosso exemplo, esse valor é de 5 ciclos de clock;
- tRCD (RAS to CAS Delay): esse parâmetro indica, também em ciclos de clock, o intervalo que há entre a ativação da linha e da coluna de um determinado dado. No exemplo acima, esse valor corresponde a 4;
- tRP (RAS Precharge): intervalo em clocks que informa o tempo gasto entre desativar o acesso a uma linha e ativar o acesso a outra. Em nosso exemplo, esse valor é de 4 ciclos;
- tRAS (Active to Precharge Delay): esse parâmetro indica o intervalo, também em clocks, necessário entre um comando de ativar linha e a próxima ação do mesmo tipo. Em nosso exemplo, esse valor é de 15 ciclos de clock;
- CR (Command Rate): intervalo que há entre a ativação do sinal CS e qualquer outro comando. Em geral, esse valor é de 1 ou 2 ciclos de clock e é acompanhado da letra T. No nosso exemplo esse valor é de 1 ciclo.
Esses parâmetros costumam ser informados pelo fabricante em um etiqueta colada ao pente de memória (muitas vezes, o valor de CMD não é informado). Quando isso não ocorre, é possível obter essa informação através de softwares específicos (como o gratuito CPU-Z, para Windows, ) ou mesmo pelo setup do BIOS.


Os parâmetros de temporização fornecem uma boa noção do tempo de acesso das memórias. Note que, quando falamos disso, nos referimos ao tempo que a memória leva para fornecer os dados requisitados. O que não foi dito acima é que esse tempo é medido em nanossegundos (ns), isto é, 1 segundo dividido por 1.000.000.000.
Assim, para se ter uma noção de qual é a frequência máxima utilizada pela memória, basta dividir 1000 pelo seu tempo de acesso em nanossegundos (essa informação pode constar em uma etiqueta no módulo ou pode ser informada através de softwares especiais). Por exemplo: se um pente de memória trabalha com 15 ns, sua frequência é de 66 MHz, pois 1000/15=66.

Outros parâmetros
Algumas placas-mãe atuais ou direcionadas ao público que faz overclock (em poucas palavras, prática onde dispositivos de hardware são ajustados para que trabalhem além das especificações de fábrica) ou, ainda, softwares que detalham as características do hardware do computador, costumam informar outros parâmetros, além dos mencionados acima. Geralmente, estes parâmetros adicionais são informados da seguinte forma: tRC-tRFC-tRRD-tWR-tWTR-tRTP (por exemplo: 22-51-3-6-3-3), também considerando ciclos de clock. Vejamos o que cada um significa:
- tRC (Row Cycle): consiste no tempo necessário para que se complete um ciclo de acesso a uma linha da memória;
- tRFC (Row Refresh Cycle): consiste no tempo necessário para a execução dos ciclos de refresh da memória;
- tRRD (Row To Row Delay): semelhante ao tRP, mas considera o tempo que o controlador necesita esperar após uma nova linha ter sido ativada;
- tWR (Write Recovery): informa o tempo necessário para que o controlador de memória comece a efetuar uma operação de escrita após realizar uma operação do mesmo tipo;
- tWTR (Write to Read Delay): consiste no tempo necessário para que o controlador de memória comece a executar operações de leitura após efetuar uma operação de escrita;
- tRTP (Read to Precharge Delay): indica o tempo necessário entre uma operação de leitura efetuada e ativação do próximo sinal.

Voltagem
Em comparação com outros itens de um computador, as memórias são um dos componentes que menos consomem energia. O interessante é que esse consumo diminuiu com a evolução da tecnologia. Por exemplo, módulos de memória DDR2 (tecnologia que ainda será abordada neste texto), em geral, exigem entre 1,8 V e 2,5 V. É possível encontrar pentes de memória DDR3 (padrão que também será abordado neste artigo) cuja exigência é de 1,5 V. Módulos de memória antigos exigiam cerca de 5 V.
Algumas pessoas com bastante conhecimento no assunto fazem overclock nas memórias aumentando sua voltagem. Com esse ajuste, quando dentro de certos limites, é possível obter níveis maiores de clock.

SPD (Serial Presence Detect)
O SPD é um pequeno chip (geralmente do tipo EEPROM) inserido nos módulos de memória que contém diversas informações sobre as especificações do dispositivo, como tipo (DDR, DDR2, etc), voltagem, temporização/latência, fabricante, número de série, etc.

Chip SPD
Muitas placas-mãe contam com um setup de BIOS que permite uma série de ajustes de configuração. Nesses casos, um usuário experimente pode definir os parâmetros da memória, no entanto, quem não quiser ter esse trabalho, pode manter a configuração padrão. Algumas vezes, essa configuração é indicada por algo relacionado ao SPD.

Detecção de erros
Alguns mecanismos foram desenvolvidos para ajudar na detecção de erros da memória, falhas essas que podem ter várias causas. Esses recursos são especialmente úteis em aplicações de alta confiabilidade, como servidores de missão crítica, por exemplo.
Um desses mecanismos é a paridade, capaz apenas de ajudar a detectar erros, mas não de corrigí-los. Nesse esquema, um bit é adicionado a cada byte de memória (lembre-se: 1 byte corresponde a 8 bits). Esse bit assume o valor 1 se a quantidade de bits 1 do byte for par e assume o valor 0 (zero) se a referida quantidade por ímpar (o contrário também pode acontecer: 1 para ímpar e 0 para par). Quando a leitura de dados for feita, um circuito verificará se a paridade corresponde à quantidade de bits 1 (ou 0) do byte. Se for diferente, um erro foi detectado.
A paridade, no entanto, pode não ser tão precisa, pois um erro em dois bits, por exemplo, pode fazer com que o bit de paridade corresponda à quantidade par ou ímpar de bits 1 do byte. Assim, para aplicações que exigem alta precisão dos dados, pode-se contar com memórias que tenham ECC (Error Checking and Correction), um mecanismo mais complexo capaz de detectar e corrigir erros de bits.

Tipos de encapsulamento de memória
O encapsulamento correspondente ao artefato que dá forma física aos chips de memória. Eis uma breve descrição dos tipos de encapsulamento mais utilizados pela indústria:
- DIP (Dual In-line Package): um dos primeiros tipos de encapsulamento usados em memórias, sendo especialmente popular nas épocas dos computadores XT e 286. Como possui terminais de contato - "perninhas" - de grande espessura, seu encaixe ou mesmo sua colagem através de solda em placas pode ser feita facilmente de forma manual;

- SOJ (Small Outline J-Lead): esse encapsulamento recebe este nome porque seus terminais de contato lembram a letra 'J'. Foi bastante utilizado em módulos SIMM (vistos mais à frente) e sua forma de fixação em placas é feita através de solda, não requerendo furos na superfície do dispositivo;


- TSOP (Thin Small Outline Package): tipo de encapsulamento cuja espessura é bastante reduzida em relação aos padrões citados anteriormente (cerca de 1/3 menor que o SOJ). Por conta disso, seus terminais de contato são menores, além de mais finos, diminuindo a incidência de interferência na comunicação. É um tipo aplicado em módulos de memória SDRAM e DDR (que serão abordados adiante). Há uma variação desse encapsulamento chamado STSOP (Shrink Thin Small Outline Package) que é ainda mais fino;


- CSP (Chip Scale Package): mais recente, o encapsulamento CSP se destaca por ser "fino" e por não utilizar pinos de contato que lembram as tradicionais "perninhas". Ao invés disso, utiliza um tipo de encaixe chamadoBGA (Ball Grid Array). Esse tipo é utilizado em módulos como DDR2 e DDR3 (que serão vistos à frente).



Módulos de memória
Entendemos como módulo ou, ainda, pente, uma pequena placa onde são instalados os encapsulamentos de memória. Essa placa é encaixada na placa-mãe por meio de encaixes (slots) específicos para isso. Eis uma breve descrição dos tipos mais comuns de módulos:
- SIPP (Single In-Line Pins Package): é um dos primeiros tipos de módulos que chegaram ao mercado. É formato por chips com encapsulamento DIP. Em geral, esses módulos eram soldados na placa-mãe;

- SIMM (Single In-Line Memory Module): módulos deste tipo não eram soldados, mas encaixados na placa-mãe. A primeira versão continha 30 terminais de contato (SIMM de 30 vias) e era formada por um conjunto de 8 chips (ou 9, para paridade). Com isso, podiam transferir um byte por ciclo de clock. Posteriormente surgiu uma versão com 72 pinos (SIMM de 72 vias), portanto, maior e capaz de transferir 32 bits por vez. Módulos SIMM de 30 vias podiam ser encontrados com capacidades que iam de 1 MB a 16 MB. Módulos SIMM de 72 vias, por sua vez, eram comumente encontrados com capacidades que iam de 4 MB a 64 MB;

- DIMM (Double In-Line Memory Module): os módulos DIMM levam esse nome por terem terminais de contatos em ambos os lados do pente. São capazes de transmitir 64 bits por vez. A primeira versão - aplicada em memória SDR SDRAM - tinha 168 pinos. Em seguida, foram lançados módulos de 184 vias, utilizados em memórias DDR, e módulos de 240 vias, utilizados em módulos DDR2 e DDR3. Existe um padrão DIMM de tamanho reduzido chamado SODIMM (Small Outline DIMM), que são utilizados principalmente em computadores portáteis, como notebooks;

- RIMM (Rambus In-Line Memory Module): formado por 168 vias, esse módulo é utilizado pelas memórias Rambus, que serão abordadas ainda neste artigo. Um fato curioso é que para cada pente de memória Rambus instalado no computador é necessário instalar um módulo "vazio", de 184 vias, chamado de C-RIMM(Continuity-RIMM).


Tecnologias de memórias
Várias tecnologias de memórias foram (e são) criadas com o passar do tempo. É graças a isso que, periodicamente, encontramos memórias mais rápidas, com maior capacidade e até memórias que exigem cada vez menos energia. Eis uma breve descrição dos principais tipos de memória RAM:
- FPM (Fast-Page Mode): uma das primeiras tecnologias de memória RAM. Com o FPM, a primeira leitura da memória tem um tempo de acesso maior que as leituras seguintes. Isso porque são feitos, na verdade, quatro operações de leitura seguidas, ao invés de apenas uma, em um esquema do tipo x-y-y-y, por exemplo: 3-2-2-2 ou 6-3-3-3. A primeira leitura acaba sendo mais demorada, mas as três seguintes são mais rápidas. Isso porque o controlador de memória trabalha apenas uma vez com o endereço de uma linha (RAS) e, em seguida, trabalha com uma sequência de quatro colunas (CAS), ao invés de trabalhar com um sinal de RAS e um de CAS para cada bit. Memórias FPM utilizavam módulos SIMM, tanto de 30 quanto de 72 vias;
- EDO (Extended Data Output): a sucessora da tecnologia FPM é a EDO, que possui como destaque a capacidade de permitir que um endereço da memória seja acessado ao mesmo tempo em que uma solicitação anterior ainda está em andamento. Esse tipo foi aplicado principalmente em módulos SIMM, mas também chegou a ser encontrado em módulos DIMM de 168 vias. Houve também uma tecnologia semelhante, chamadaBEDO (Burst EDO), que trabalhava mais rapidamente por ter tempo de acesso menor, mas quase não foi utilizada, pois tinha custo maior por ser de propriedade da empresa Micron. Além disso, foi "ofuscada" pela chegada da tecnologia SDRAM;


- SDRAM (Synchronous Dynamic Random Access Memory): as memórias FPM e EDO são assíncronas, o que significa que não trabalham de forma sincronizada com o processador. O problema é que, com processadores cada vez mais rápidos, isso começou a se tornar um problema, pois muitas vezes o processador tinha que esperar demais para ter acesso aos dados da memória. As memórias SDRAM, por sua vez, trabalham de forma sincronizada com o processador, evitando os problemas de atraso. A partir dessa tecnologia, passou-se a considerar a frequência com a qual a memória trabalha para medida de velocidade. Surgiam então as memórias SDR SDRAM (Single Data Rate SDRAM), que podiam trabalhar com 66 MHz, 100 MHz e 133 MHz (também chamadas de PC66, PC100 e PC133, respectivamente). Muitas pessoas se referem a essa memória apenas como "memórias SDRAM" ou, ainda, como "memórias DIMM", por causa de seu módulo. No entanto, a denominação SDR é a mais adequada;

- DDR SDRAM (Double Data Rate SDRAM): as memórias DDR apresentam evolução significativa em relação ao padrão SDR, isso porque elas são capazes de lidar com o dobro de dados em cada ciclo de clock (memórias SDR trabalham apenas com uma operação por ciclo). Assim, uma memória DDR que trabalha à frequência de 100 MHz, por exemplo, acaba dobrando seu desempenho, como se trabalhasse à taxa de 200 MHz. Visualmente, é possível identificá-las facilmente em relação aos módulos SDR, porque este último contém duas divisões na parte inferior, onde estão seus contatos, enquanto que as memórias DDR2 possuem apenas uma divisão.

- DDR2 SDRAM: como o nome indica, as memórias DDR2 são uma evolução das memórias DDR. Sua principal característica é a capacidade de trabalhar com quatro operações por ciclo de clock, portanto, o dobro do padrão anterior. Os módulos DDR2 também contam com apenas uma divisão em sua parte inferior, no entanto, essa abertura é um pouco mais deslocada para o lado.

- DDR3 SDRAM: as memórias DDR3 são, obviamente, uma evolução das memórias DDR2. Novamente, aqui dobra-se a quantidade de operações por ciclo de clock, desta vez, de oito. Uma novidade aqui é a possibilidade de uso de Triple-Channel.
 Rambus (Rambus DRAM): as memórias Rambus recebem esse nome por serem uma criação da empresa Rambus Inc. e chegaram ao mercado com o apoio da Intel. Elas são diferentes do padrão SDRAM, pois trabalham apenas com 16 bits por vez. Em compensação, memórias Rambus trabalham com frequência de 400 MHz e com duas operações por ciclo de clock. Tinham como desvantagens, no entanto, taxas de latência muito altas, aquecimento elevado e maior custo. Memórias Rambus nunca tiveram grande aceitação no mercado, mas também não foram um total fiasco: foram utilizadas, por exemplo, no console de jogos Nintendo 64. Curiosamente, as memórias Rambus trabalham em pares com "módulos vazios" ou "pentes cegos". Isso significa que, para cada módulo Rambus instalado, um "módulo vazio" tem que ser instalado em outro slot. Essa tecnologia acabou perdendo espaço para as memórias DDR.
                                                                         
                                                                        FONTE: http://www.infowester.com/memoria.php

segunda-feira, 5 de novembro de 2012



 

Tipos de telas: LCD, Plasma, OLED e AMOLED


Introdução

Em um passado não muito distante, comprar um monitor de vídeo ou uma televisão consistia em adquirir um aparelho grandalhão e pesado, afinal, estes dispositivos eram do tipo CRT (Catodic Ray Tube - Tubo de raios catódicos). Hoje, no entanto, monitores e televisores ocupam muito menos espaço e oferecem melhor qualidade de imagem. Duas tecnologias bastante populares neste segmento são as telas de LCD (Liquid Crystal Display) e Plasma, que também podem ser empregadas em dispositivos portáteis. Como se não bastasse, estas tecnologias logo começaram a dividir espaço com telas de OLED (Organic Light-Emitting Diode) e AMOLED (Active Matrix Organic Light-Emitting Diode). Mas, o que estes nomes significam? Qual a diferença entre LCD e Plasma? Telas OLED ou AMOLED são melhores em quê? O InfoWester apresenta as respostas para estas e outras questões a seguir.
Links diretos:

O que é LCD?

A tecnologia LCD (Liquid Crystal Display - Telas de Cristal Líquido) não é empregada apenas em monitores ou TVs. No mercado, é possível encontrar dispositivos portáteis - como consoles de games, telefones celulares, calculadoras e câmeras digitais - cujas telas também fazem uso desta tecnologia. Laptops, por exemplo, utilizam este tipo de tela há anos.
Tal como o seu nome indica, o "segredo" do LCD está em um material chamado cristal líquido, que recebe este nome porque, apesar de não se tratar exatamente de um componente líquido, suas características o fazem agir como tal.
Em sua constituição mais simples, as moléculas de cristal líquido são distribuídas entre duas lâminas transparentes polarizadas chamadas substratos. Este processo é orientado de maneira diferente nas duas lâminas, de forma que estas formem eixos polarizadores perpendiculares, como se formassem um ângulo de 90º. A grosso modo, é como se uma lâmina recebesse polarização horizontal, e a outra, polarização vertical, formando um esquema do tipo "linhas e colunas".
As moléculas de cristal líquido são capazes de orientar a luz. Quando uma imagem é exibida em um monitor LCD, elementos elétricos presentes nas lâminas geram campos magnéticos que induzem o cristal líquido a "guiar" a luz oriunda da fonte luminosa para formar o conteúdo visual. Sempre que necessário, uma tensão diferente pode ser aplicada, fazendo com que as moléculas de cristal líquido se alterem de maneira a impedir a passagem da luz.
Em telas monocromáticas (comuns em relógios e calculadoras, por exemplo), as moléculas assumem dois estados: transparente (a luz passa) e opaco (a luz não passa). Para telas que exibem cores, diferentes tensões e filtros que trabalham sobre a luz branca são aplicados às moléculas.

Matriz ativa e matriz passiva

As telas LCD se dividem, basicamente, em duas categorias: matriz ativa (Active Matrix LCD) e matriz passiva (Passive Matrix LCD). O primeiro tipo tem como principal diferença a aplicação de transistores para cada pixel (em poucas palavras, pixel é um ponto que representa a menor parte da imagem em uma tela), enquanto que, na matriz passiva, os transistores são aplicados tomando como base o já mencionado esquema de linhas e colunas.
Com isso, nas telas de matriz ativa, cada pixel desta pode receber uma tensão diferente, permitindo, entre outros, a utilização de resoluções altas. Por outro lado, sua fabricação é tão complexa que não é raro encontrar monitores novos que possuem pixels que não funcionam - os chamados "dead pixels".
As telas de matriz passiva, por sua vez, têm constituição mais simples. O cristal líquido é posicionado entre dois substratos, tal como indica a ilustração a seguir. Circuitos integrados são encarregados de controlar as cargas que ativam os pixels, permitindo que as imagens sejam formadas na tela.
Moléculas de lristal líquido entre lâminas
Moléculas de lristal líquido entre lâminas
Devido à sua simplicidade, telas de matriz passiva são mais baratas, porém apresentam desvantagens consideráveis, como menor tempo de resposta (saiba o que isso significa mais adiante). Por isso, atualmente, seu uso é comum apenas em dispositivos que não necessitam de tanta qualidade, como calculadoras. Neste sentido, equipamentos mais sofisticados são construídos com matriz ativa.
A simplicidade das telas de matriz passiva reside no fato de a aplicação de tensões considerando linhas e colunas não ter o mesmo nível de complexidade que a fabricação de telas de matriz ativa. O problema é que quando um pixel é acionado a partir deste esquema, a aplicação de tensão nele pode fazer com que os pixels das linhas e colunas vizinhas também sejam afetados, fazendo com que trabalhem, mesmo que levemente, prejudicando a geração da imagem como um todo.
Na matriz ativa, este problema foi solucionado porque a aplicação de um controle de tensão individual para cada pixel não tem "efeito colateral", isto é, não "contamina" pixels vizinhos. Geralmente, as telas de matriz ativa utilizam um componente chamado TFT (Thin Film Transistor - algo como Transistor de Film Fino), cuja principal característica é justamente a aplicação, por meio de uma camada, de transistores específicos para cada pixel.

Tipos de LCD

A busca por imagens melhores aliada a processos viáveis de fabricação fez com que a indústria desenvolvesse várias tipos de LCD. A seguir, as variedades mais encontradas:
- TN (Twisted Nematic): este é um dos tipos mais comuns, utilizado em dispositivos de baixo custo. Nele, as partículas de cristal líquido são posicionadas de maneira retorcida. A aplicação de carga elétrica é capaz de fazer os cristais girarem em até 90 graus, de acordo com o nível de tensão utilizado, determinando a passagem ou não de luz. Há também um tipo chamado STN (Super TWisted Nematic) que é uma espécie de evolução do TN. Suas moléculas têm movimentação melhorada, fazendo com que o usuário consiga ver a imagem do monitor satisfatoriamente em ângulos muitas vezes superiores a 160º, característica não existente nos painéis TN. Há ainda outras variações, como Double Layer STN e Film compensated STN;
- IPS (In-Plane Switching): trata-se de uma tecnologia mais sofisticada, aplicada principalmente em equipamentos de LCD de maior qualidade. Nela, as partículas de cristal líquido seguem um alinhamento horizontal em vez de vertical, como geralmente acontece com painéis TN. Graças a isso, telas IPS conseguem trabalhar com maior taxa de atualização (conceito abordado mais à frente), resultando em mais conforto visual ao usuário. Painéis IPS também oferecem mais nitidez e brilho, além de visualização satisfatória mesmo quando a tela é olhada de um ponto lateral. Há também uma variação chamada S-IPS (Super IPS), capaz de trabalhar com mais ângulos, resoluções maiores e taxas mais acentuadas de brilho. Como gastam mais energia - consequência principalmente da utilização de quantidades maiores de transistores -, telas IPS não são frequentemente empregadas em dispositivos portáteis, como laptops e tablets;
- AFFS (Advanced Fringe Field Switching): semelhante à tecnologia IPS, já que também utiliza alinhamento horizontal, a especificação AFFS é empregada em equipamentos que oferecem alta qualidade de imagem, tendo como diferenciais a capacidade de apresentar boa visualização em variados ângulos de observação e de oferecer excelente fidelidade de cores;
- VA (Vertical Alignment): neste tipo, as partículas de cristal líquido se encontram em posição vertical em relação aos substratos. Telas do tipo são capazes de oferecer boa reprodução de cores e visualização em vários ângulos, mas geralmente têm tempo de resposta em níveis piores em comparação ao IPS e ao AFFS. Tal como acontece com os outros tipos, telas VA também contam com variações, sendo as mais comuns a MVA (Multi-domain Vertical Alignment) e a PVA (Patterned Vertical Alignment);
- ASV (Advanced Super View): trata-se de uma tecnologia desenvolvida pela Sharp que se assemelha ao VA. De acordo com a empresa, sua principal vantagem está no suporte a vários ângulos de visão, podendo chegar a 170 graus. Isso porque as moléculas de cristal líquido conseguem se posicionar em várias direções, com movimentos semelhantes aos que fogos de artifícios fazem ao explodir;
- Super PSL (Plane-to-Line Switching): sendo uma das mais recentes e tendo a Samsung por trás de seu desenvolvimento, a tecnologia PSL é similar ao padrão IPS. No entanto, de acordo com a empresa, uma tela do tipo é cerca de 10% mais brilhante e tem custo de fabricação 15% menor em comparação a este último. Sua aplicação é destinada tanto para monitores e aparelhos de TV quanto para dispositivos móveis.

O que é Plasma?

A tecnologia LCD é certamente, um grande avanço para a indústria de telas (displays), mas não veio sozinha: principalmente no segmento de televisores, as telas de Plasma respondem por uma boa fatia do mercado.
Na verdade, não se trata de uma tecnologia necessariamente nova: as primeiras telas do tipo foram apresentadas na década de 1960. No entanto, a tecnologia somente passou por aperfeiçoamentos significativos nos últimos anos.
Tal como você já sabe, o componente principal do LCD é o cristal líquido presente entre duas lâminas. No Plasma, o esquema é parecido, mas o material que permanece entra as camadas é um tipo de gás que fica armazenado em um conjunto de milhões de células.
Este gás, quando estimulado eletricamente, libera luz ultravioleta. Esta, por sua vez, causa reação nos átomos de fósforo que revestem cada célula. O fósforo é um elemento que gera iluminação quando submetido a outra luz.
Nos painéis de Plasma, normalmente cada pixel é formado por três células, cada uma responsável por uma cor diferente: vermelho (red), verde (green) e azul (blue). A combinação destas é que gera as cores que enxergamos na tela. O fósforo presente em cada célula recebe uma intensidade de luz ultravioleta diferente, possibilitando milhões de combinações que resultam na gama de cores.
TV de Plasma - Imagem por Panasonic
TV de Plasma - Imagem por Panasonic
Graças a isso, painéis de Plasma conseguem ter seus pixels iluminados de maneira individual. O resultado é uma tela com excelentes níveis de brilho e nitidez, mesmo quando visualizada a partir de posições mais afastadas em relação à frente do aparelho.

Qual é melhor: LCD ou Plasma?

Depende. Pode parecer uma resposta muito evasiva, mas é a mais adequada. É bom que se saiba que cada tem tecnologia tem suas vantagens e desvantagens, e que estas podem ser amenizadas ou acentuadas, dependendo do produto como um todo.
Por padrão, podemos dizer que o LCD tem as seguintes desvantagens: menos brilho, não exibe cor preta "profunda" com fidelidade, possibilidade de um ou mais pixels não funcionarem corretamente (o já mencionado dead pixel), pode haver mais limitações na variedade de resoluções disponíveis, entre outros.
Telas de Plasma, por sua vez, são suscetíveis a um problema chamado burn-in, que consiste em marcas deixadas no painel quando determinadas imagens são exibidas por muito tempo no aparelho, como por exemplo, o logotipo de uma emissora de TV no canto da tela. Além disso, são mais caras e, muitas vezes, mais frágeis.
Mas, como você viu no tópico sobre tipos de LCD, a indústria trabalha incansavelmente em formas de melhorar as tecnologias, por isso, não raramente, os problemas associados a cada padrão podem ser amenizados ou até mesmo eliminados.
Por este motivo, diante do dilema de escolher entre um produto LCD e outro Plasma, certamente é mais adequado observar as especificações de cada dispositivo. O tópico a seguir aborda as características mais comuns.

Características das telas

Na hora de escolher um monitor de vídeo ou mesmo uma TV, independente da tecnologia, é importante observar alguns aspectos para fazer uma boa aquisição. A seguir, as principais características a serem observadas.

Tempo de resposta

O tempo de resposta é uma característica importante, principalmente a quem deseja utilizar o monitor ou a TV para jogos ou vídeos em alta definição. Isso porque estas são aplicações que exigem alterações rápidas do conteúdo visual. Se o monitor ou a TV não for capaz de acompanhar estas mudanças, ou seja, tiver um tempo de resposta ruim, causará efeitos indesejados, como "objetos fantasmas" na imagem ou sombra em movimentos.
Quanto menor o tempo de resposta, melhor a atualização da imagem. Para os padrões atuais, é recomendável um equipamento que tenham esta medida com tempo inferior a 10 ms.

Taxa de atualização

A taxa de atualização (refresh rate) indica a quantidade de vezes que a tela é renovada por segundo. Sua medida é feita em Hertz (Hz). Se um monitor trabalha com 75 Hz, por exemplo, isso significa que a imagem é renovada 75 vezes por segundo na tela.
Em termos gerais, quanto maior a taxa de atualização, mais conforto visual o usuário terá, especialmente em sequências de vídeo bastante movimentadas. O mínimo recomendável é 60 Hz.
Vale frisar, no entanto, que este aspecto foi muito importante nos aparelhos CRT, já que estes utilizam um feixe de luz que varre toda a tela. Assim, quanto maior sua taxa de atualização, mas rapidamente o feixe termina uma varredura e começa outra.
Nas telas atuais, sejam elas LCD, Plasma ou OLED, a taxa de atualização não é tão importante assim, já que os pixels permanecem ativos até que uma mudança de imagem os faça mudar de condição.

Tamanho da tela e resolução

Quando os monitores de LCD começaram a se popularizar, era comum encontrar telas com tamanho de 14, 15 e 17 polegadas. Hoje, o tamanho mínimo mais comum para monitores é de 19 polegadas, não sendo raro monitores com telas de 20, 21, 23 ou até mais polegadas. Os Televisores mais comuns variam entre 20 e 50 polegadas, sendo que telas de Plasma geralmente são aplicadas mais comumente nos modelos maiores.
Também é interessante notar que, atualmente, praticamente todos os monitores e televisores são do tipo widescreen. Isso indica que suas telas são mais largas, tornando-os uma excelente opção para a visualização de filmes ou para a exibição de mais informações na tela.
Via de regra, um monitor pode ser considerado widescreen quando tem um aspect ratio superior a 4:3. Isso quer dizer que a proporção da tela é uma unidade de medida maior na largura para cada três unidades de medida na altura. Para efeitos comparativos, bastaria uma tela ter aspect ratio de 4:4 (ou 1:1) para ser considerada quadrada. O monitor visto abaixo tem aspect ratio de 16:9, portanto, é widescreen:
Monitor widescreen - Imagem por LG
Monitor widescreen - Imagem por LG
Vale frisar que se uma tela tem, por exemplo, tamanho de 19 polegadas e formato widescreen, isso não significa que o dispositivo é, necessariamente, maior que um monitor de 19 "normal". O que acontece nas telas widescreen é que, a grosso modo, suas laterais são mais afastadas, mas a distância entre as extremidades superior e inferior não aumentam na mesma proporção.
Em relação à resolução, monitores e televisores trabalham atualmente com taxas satisfatórias. Quando falamos deste aspecto, estamos nos referindo ao conjunto de pixels que formam linhas horizontais e verticais na tela. Vamos tomar como exemplo uma resolução de 1600x900. Esse valor indica que há 1600 pixels na horizontal e 900 pixels na vertical, como exemplifica a imagem:
Tela com resolução de 1600x900
Tela com resolução de 1600x900
Ainda sobre resolução, você pode encontrar termos como 720p e 1080p. Conforme explica este artigo sobre HDMI, estas nomenclaturas indicam a quantidade de pixels suportada pelo dispositivo, além do uso de progressive scan ou interlaced scan. No progressive scan, todas as linhas de pixels da tela são atualizadas simultaneamente. Por sua vez, no modo interlaced scan, primeiro as linhas pares recebem atualização e, em seguida, as linhas ímpares, ou seja, é um esquema do tipo "linha sim, linha não". Em geral, o modo progressive scan oferece melhor qualidade de imagem.
Assim sendo, a letra 'p' existente em 720p, 1080p e outras resoluções indica que o modo usado é progressive scan. Se for utilizado interlaced scan, a letra aplicada é 'i' (por exemplo, 1080i). O número, por sua vez, indica a quantidade de linhas de pixels na vertical. Isso significa que a resolução 1080p, por exemplo, conta com 1080 linhas verticais e funciona com progressive scan. Eis algumas resoluções comuns:
  • 480i = 640x480 pixels com interlaced scan;
  • 480p = 640x480 pixels com progressive scan;
  • 720i = 1280x720 pixels com interlaced scan;
  • 720p = 1280x720 pixels com progressive scan;
  • 1080i = 1920x1080 pixels com interlaced scan;
  • 1080p = 1920x1080 pixels com progressive scan.
Você já deve ter ouvido falar do termo Full HD (High Definition). Esta expressão, cuja interpretação seria algo como "Alta Definição Máxima", indica que a tela trabalha na resolução máxima, que é de 1080p. Isso significa que o dispositivo será capaz de executar em qualidade máxima vídeos - provenientes de um disco Blu-ray, por exemplo - preparados para este nível de resolução.
Estão surgindo no mercado televisores mais sofisticados capazes de trabalhar com 4K, uma resolução tão alta que seu uso não é raro em cinemas. Esta medida indica que o aparelho é capaz de proporcionar imagens com até 4096x2160 pixels. Incrível, não? Para se ter uma ideia do "poder" da resolução de 4K, um vídeo de poucos segundos pode exigir vários gigabytes de tamanho para aproveitar todo o seu potencial.
Também é possível encontrar equipamentos que trabalham com as resoluções de 2K (2048x1080 pixels) e 8K (7680x4320 pixels).

Contraste e brilho

O contraste é outra característica importante na escolha de monitores e televisores. Trata-se de uma medição da diferença de luminosidade entre o branco mais forte e o preto mais escuro. Quanto maior for esse valor, mais fiel será a exibição das cores da imagem. Isso acontece porque esta taxa, quando em número maior, indica que a tela é capaz de representar mais diferenças entre cores. Para o mínimo de fidelidade, é recomendável o uso de telas com contraste de pelo menos 500:1 ou, se o fabricante informar esta medida como sendo "contraste dinâmico", de 10.000:1.
Em relação ao brilho, o ideal é o uso de tela que tenham esta taxa em, pelo menos, 250 cd/m² (candela por metro quadrado).

Ângulo de visão

A maneira mais fácil de visualizar o conteúdo exibido na tela é estando bem à frente dela. Mas, na sala de uma casa com várias pessoas, por exemplo, alguém sempre ficará em uma posição lateral em relação à TV. Por isso, é importante escolher um monitor ou um televisor com suporte a ângulos de visão mais "generosos".
O ideal é escolher um dispositivo que ofereça ângulo de visão máximo o mais próximo possível de 180 graus. Perceba que alguns fabricantes podem anunciar esta medida como sendo, por exemplo, 170H/150V. A letra 'H' indica o ângulo na horizontal, enquanto que 'V' o faz considerando a vertical, isto é, a visualização a partir de tantos graus para cima e para baixo.

Ângulo de visão lateral
Ângulo de visão lateral

OLED e AMOLED

As tecnologias LCD e Plasma representam um marco para a indústria de telas, mas não estão sozinhas. Mais recentemente, as tecnologias OLED (Organic Light Emitting Diode) e AMOLED (Active Matrix OLED) começaram a ter espaço neste segmento.
Antes de prosseguirmos, é importante frisar que muitos aparelhos possuem telas LCD com retroiluminação LED (enquanto outros o fazem com lâmpadas especiais). Isso significa que o painel conta com um conjunto de LEDs responsável por iluminar cada trecho do LCD. Com isso, o fabricante promove o dispositivo com sendo um "monitor LED" ou uma "TV LED", mas é importante deixar claro que estes aparelhos não são OLED ou AMOLED.
Em tempo, LED (Light Emitting Diode) consiste, tal como o nome indica, em um diodo (material semicondutor) capaz de emitir luz quando energizado. Trata-se de um componente com ampla utilização pela indústria por ser barato e mais durável. É possível encontrá-lo em eletrônicos dos mais variados tipos, até mesmo em lanternas de carros.

OLED

O OLED tem certa semelhança com o LED, mas difere em sua composição: trata-se de um material formado por diodos orgânicos (isto é, constituídos com carbono) que geram luz quando recebem carga elétrica. Estes diodos podem ser bastante pequenos, permitindo que cada pixel da tela receba este material de forma a ser iluminado individualmente.
Como o OLED é capaz de gerar luz, a tela não necessita de retroiluminação. Por causa disso, a indústria pode criar telas mais finas e que geram menos custos de fabricação, já que este processo também é mais simples. A espessura de painéis OLED é tão minúscula que é possível até mesmo a fabricação de telas flexíveis, já em teste em vários fabricantes.
As vantagens não terminam aí: telas OLED também gastam menos energia; geram cores mais nítidas, inclusive de preto, já que não há camadas que possam diminuir a intensidade de iluminação; suportam maior ângulo de visão; e oferecem menos tempo de resposta.
Por causa disso, telas OLED são utilizadas principalmente em dispositivos móveis, que necessitam de telas mais finas por causa do seu tamanho reduzido e também de menor consumo de energia, já que somente são conectados às tomadas para recarga de bateria.

AMOLED

Há uma variação do OLED chamada AMOLED. A principal diferença entre ambos é que telas composta com esta última tecnologia são do tipo matriz ativa. É uma situação semelhante à existente no LCD: telas OLED com matriz passiva são orientadas com um esquema de transistores organizados em linhas e colunas; em telas AMOLED, os transistores são aplicados considerando cada pixel.
Para que isto seja possível, as telas AMOLED, tal como o LCD, também utilizam uma camada de TFT, o que deixa sua fabricação um pouco mais complexa. Mas, deste processo surgem várias vantagens, como telas com tempo de resposta ainda menor e cores mais vivas.
Nokia N9: smartphone com tela AMOLED
Nokia N9: smartphone com tela AMOLED
É possível encontrar mais variações da tecnologia OLED. Uma delas, apresentada pela Samsung, é chamada pela empresa de Super AMOLED. O seu desenvolvimento é fruto da disputa de empresas pela fabricação da tela mais fina: o AMOLED "comum" é, essencialmente, composto por camadas com cátodo, material orgânico e TFT inseridos entre lâminas de vidro. No Super AMOLED, uma destas lâminas é eliminada, assim como o espaço entre as camadas é diminuído, permitindo a formação de uma tela mais fina.
Telas Super AMOLED conseguem amenizar um problema do AMOLED, já que também possui menor quantidade de material refletivo: a dificuldade de visualização da tela em situações de exposição à luz solar, problema que também ocorre com telas LCD e Plasma, mas geralmente com menor intensidade. Se levarmos em conta que telas OLED e AMOLED são aplicadas principalmente em dispositivos móveis, portanto, com mais chances de serem expostas ao Sol, é uma vantagem e tanto!

Telas sensíveis ao toque

Telas sensíveis ao toque (touchscreen) existem há tempos, mas somente nos últimos anos se popularizaram, especialmente com o surgimento de smartphones e tablets. A ideia é muito simples: com o uso de uma caneta especial (stylus) ou com as pontas dos dedos, o usuário executa determinações ações na tela por meio de toques.
Há várias tecnologias para este tipo de aplicação, como as telas que utilizam sensores infravermelho ou ondas acústicas de superfícies. No entanto, as tecnologias mais comuns são as telas resistivas e capacitivas.

Telas resistivas

Telas resistivas chegaram primeiro ao mercado e são utilizadas principalmente com stylus, embora também possam ser acionadas com a ponta dos dedos. Seu funcionamento ocorre, essencialmente, da seguinte forma: a tela possui duas lâminas bastante finas sobrepostas, havendo um espaço bastante pequeno entre elas. Quando um toque é realizado na tela, as duas lâminas se tocam naquele ponto, causando uma mudança na corrente elétrica que passa por ali. Esta alteração é identificada e suas coordenadas são repassadas para o aparelho em si, que executará a tarefa relacionada.
Telas resistivas têm fabricação mais simples e componentes menos custosos, portanto, são mais baratas. Por outro lado, apresentam desvantagens consideráveis: para começar, suas lâminas deixam a tela mais escura; além disso, podem não funcionar muito bem com toque a partir da ponta dos dedos; por fim, aplicações que exigem dois ou mais toques simultâneos geralmente não funcionam da maneira esperada com este tipo de tela.
A tela inferior do Nintendo DS é resistiva
A tela inferior do Nintendo DS é resistiva

Telas capacitivas

Telas capacitivas são mais sofisticadas e, consequentemente, mais caras, mas oferecem uma experiência muito melhor ao usuário. É o tipo de tela sensível ao toque encontrado nas linhas iPhone e iPad da Apple, por exemplo.
As telas capacitivas possuem uma lâmina que recebe carga elétrica. Quando o usuário toca na tela, a carga elétrica existente na ponta dos dedos causa uma alteração no campo elétrico presente ali. Com isso, o dispositivo é capaz de identificar os pontos que estão sendo tocados e executar a ação necessária.
iPad 2: tela capacitiva -  Imagem por Apple
iPad 2: tela capacitiva - Imagem por Apple
Telas capacitivas são mais vantajosas: o usuário não precisa, necessariamente, exercer uma pressão na tela, tal como ocorre nas telas resistivas, bastando o toque; é possível utilizar múltiplos toques simultâneos; a tela não possui camadas que a deixam consideravelmente mais escuras.
Por outro lado, o usuário pode ter alguma dificuldade para usar a tela se estiver usando luvas, por exemplo. Além disso, aplicações que exigem uma stylus precisam que este dispositivo tenha em sua ponta algum material capaz de alterar o campo elétrico da tela.

Telas 3D

Não faz muito tempo que a, exemplo dos cinemas, a indústria começou a apresentar telas capazes de gerar imagens 3D. Em poucas palavras, isso significa que uma pessoa é capaz de visualizar determinado conteúdo na tela com uma percepção de profundidade acentuada, fazendo-a ter a impressão de que a imagem em foco está, de fato, à sua frente.
Telas do tipo são mais sofisticadas e, consequentemente, mais caras. Boa parte delas exige a utilização de óculos especiais para a visualização do conteúdo tridimensional, embora o mercado já conte com aparelhos que dispensam o uso destes dispositivos. Um exemplo é console portátil de games Nintendo 3DS.
Basicamente, o conteúdo 3D é formado pela exibição simultânea de duas imagens iguais, mas deslocadas ligeiramente na horizontal. Cada imagem é captada de maneira individual por cada olho. Este processo todo gera a percepção de profundidade. Perceba que, com isso, pessoas que possuem um dos olhos comprometidos acabam não conseguido "juntar" (convergir) as imagens para visualizar o material como estando em 3D.
Formando uma imagem 3D - Ilustração por Panasonic
Formando uma imagem 3D - Ilustração por Panasonic
Nos cinemas, os óculos utilizados são do tipo passivo. O tipo de óculos que mais se popularizou é o que usa uma lente na cor azul e a outra na cor vermelha. As lentes vermelhas conseguem "anular" os tons desta mesma cor provenientes da imagem. A lente azul faz o mesmo com os seus tons. Este esquema consegue gerar uma sensação de profundidade.
Todavia, é mais comum encontrar nos cinemas óculos do tipo polarizados. Estes possuem lentes que filtram a passagem de luz a partir de determinados ângulos. Este tipo de óculos se tornou comum porque exibe as cores de maneira mais fiel.
No caso de TVs 3D, é mais comum o uso de óculos ativos. Estes geralmente são formados por lentes que fazem uso da tecnologia LCD ou mesmo Plasma que ficam transparentes e opacos de acordo com o conteúdo 3D exibido, de forma que o olho direito fique sem recepção das luzes quando imagens para o olho esquerdo são mostradas e vice-versa. Isso acontece de maneira extremamente rápida. Além disso, os óculos se comunicam com a TV por alguma tecnologia sem fio (geralmente, infravermelho ou Bluetooth) para "saber" o momento de ativar ou desativar a passagem de luz para cada olho.
Óculos 3D ativos - Imagem por Panasonic
Óculos 3D ativos - Imagem por Panasonic
No caso de equipamentos que não exigem óculos 3D, há vários "truques" que podem ser empregados, no entanto, é mais comum o uso de telas que possuem uma camada de lentes extremamente pequenas, onde parte destas direciona a imagem para o olho esquerdo e, a outra, para o olho direito. Tais lentes são dispostas de maneira intercalada. O problema é que o conteúdo 3D precisa ser disponibilizado de maneira compatível com este esquema para o efeito tridimensional funcionar.
Telas 3D podem ser oferecidas nas tecnologias abordadas aqui, sendo mais comum, no caso de televisores, em painéis LCD e Plasma. Perceba que não é qualquer equipamento do tipo que pode exibir imagens tridimensionais; é necessário que o dispositivo seja preparado para isso. Além disso, o conteúdo - como um filme - também precisa ser compatível.
Note que o cérebro acaba tendo que trabalhar mais para conseguir focalizar e convergir as imagens, por isso, não raramente, uma pessoa pode se cansar mais rapidamente ao visualizar conteúdo 3D.


Gorilla Glass

A tecnologia Gorilla Glass é um dos itens que diferenciaram o iPhone em seu lançamento. Tem tanta importância para esta linha que a história de seu uso foi inclusive contada na biografia de Steve Jobs, já que o executivo esteve diretamente envolvido com a sua adoção.
Jobs queria que a tela do iPhone utilizasse vidro, em vez de outro material transparente. O problema é que vidro é um componente que pode sofrer riscos ou quebras com relativa facilidade. Por conta disso, passou a procurar por alguma tecnologia de vidro altamente resistente.
Não demorou para que Jobs encontrasse Wendell Weeks, que dirigia a empresa Corning Class. Jobs explicou que tipo de vidro procurava e, para a sua felicidade, Weeks revelou que sua empresa desenvolveu uma tecnologia em meados de 1960 que poderia atender à sua necessidade.
Wendell Weeks estava falando de um tipo de vidro feito com um processo químico que o tornava bastante resistente, portanto, com chances bem menores de ser quebrado ou riscado. O problema é que este tipo de material não encontrou aplicação no mercado, fazendo a Corning Glass parar de produzí-lo.
Foi assim que o Gorilla Glass apareceu como um tecnologia nova. Jobs só teve o trabalho de convencer Weeks a fabricar os vidros para o iPhone. Apesar das incertezas do dirigente da Corning Class, o primeiro lote foi entregue depois de seis meses, aproximadamente.
Atualmente, é possível encontrar a tecnologia Gorilla Glass sendo empregada em smartphones, TVs, tablets e outros dispositivos produzidos por diversos fabricantes.
Como a tecnologia Gorilla Glass não encarece de maneira significativa os produtos, adquirir um aparelho que a utilize pode realmente valer a pena.



FONTE: http://www.infowester.com/lcd_plasma_oled.php