Servidores POP3 e SMTP de Vários Provedores

Provedores

 

O que é IMAP?

R.: O nome verdadeiro é IMAP, com ele você nunca vai perder seus emails, eles sempre ficarão no servidor e só faz o download (sem tirar do servidor) quando você clicar, evitando assim sobrecarga do seu computador e sem necessidade de backup.

O que é POP3?

R.: É o endereço do servidor de recebimentos os emails. Ao verificar os emails o programa faz o download de tudo deletando as mensagens do servidor (salvo se configurado para não fazer isso), gasta espaço em seu HD e há necessidade de backup. (Caixa de Entrada)

O que é SMTP?

R.: É o endereço do servidor de envio de email, é por ele que a mensagem e transmitida até chegar a destinatário. (Caixa de Saída)

 

1.@Outlook.com @hotmail.com, @hotmail.com.br, @msn.com, @live.com:

POP3: pop-mail.outlook.com / pop3.live.com

SMTP: smtp-mail.outlook.com / smtp.live.com

Exige Autenticação? : Sim

Porta SMTP: 25 ou 587

Necessita Conexão Segura TLS ?: Sim

Porta POP3: 995

Necessita Conexão Segura SSL?: Sim

 

2. Gmail (Google Mail):

IMAP: imap.gmail.com

POP3: pop.gmail.com

SMTP: smtp.gmail.com.br

Exige Autenticação? : Sim

Porta SMTP: 465

Porta POP3 / IMAP: 995 ou 993

Necessita Conexão Segura SSL?: Sim

Importante: Necessário ativar POP e IMAP nas configurações no site (webmail)

 

3. Yahoo (@yahoo.com, @yahoo.com.br ; @ymail.com ; @rocketmail.com) :

IMAP: imap.mail.yahoo.com

POP3: pop.mail.yahoo.com.br

SMTP: smtp.mail.yahoo.com.br

Exige Autenticação? : Sim

Porta SMTP: 465

Porta POP3 / IMAP: 993

Necessita Conexão Segura SSL?: Sim

 

4. BOL (Brasil On-Line): (Versão Free do UOL)

POP3: pop3.bol.com.br

SMTP: smtps.bol.com.br

Exige Autenticação? : Sim

Porta SMTP: 587

Necessita Conexão Segura SSL?: não

Porta POP3: 995

Necessita Conexão Segura SSL?: Sim

 

5. IG (Internet Generation):

POP3: pop.ig.com.br

SMTP: smtp.ig.com.br

Exige Autenticação? : Sim

Porta SMTP: 465

Porta POP3: 995

Necessita Conexão Segura SSL?: Sim

 

6. UOL (Universo On-Line):

POP3: pop3.uol.com.br

SMTP: smtps.uol.com.br

Exige Autenticação? : Sim

Porta SMTP: 587 ou 465

Porta POP3: 995

Necessita Conexão Segura SSL?: Sim

 

7. Terra:

IMAP: imap.terra.com.br

(IMAP disponível apenas para Usuário “Terra Email Gigante”)

POP3: pop.terra.com.br

SMTP: smtp.terra.com.br

Exige Autenticação? : Sim

Porta SMTP: 587

Porta POP3 / IMAP: 110

Necessita Conexão Segura SSL?: Não

 

8. iTelefônica: (Associado ao Terra)

POP3: pop.itelefonica.com.br

SMTP: smtp.itelefonica.com.br

Exige Autenticação? : Sim

Porta SMTP: 25

Porta POP3: 110

Necessita Conexão Segura SSL?: Não

 

Referencia de Site

http://www.truquesemacetes.com/html/sm/dc/incredimail/pop3_smtp_p01.htm

http://assessorvirtual.blogspot.com.br/2011/08/servidores-pop3-e-smtp-de-varios.html

 

Download

Download (DOCX, Unknown)

https://skydrive.live.com/redir?resid=8D81A61193FE35D4%21113

ou

https://docs.google.com/document/d/1is_6NMW2645OfK535jmQDhwSqiNOOkBKF9KSyRv_56Q/edit?usp=sharing

Mito ou verdade: desfragmentar o HD diminui a vida útil do disco?

Mito ou verdade: desfragmentar o HD diminui a vida útil do disco?

Com o passar do tempo de uso, convém desfragmentar o disco rígido (Fonte da imagem: Shutterstock)

Para resolver esse problema, há ferramentas especializadas e até mesmo fornecidas gratuitamente junto com o sistema operacional, como é o caso do programa Defrag, do Windows. Elas são responsáveis por reorganizar esses dados, com o propósito de dar menos trabalho para o HD. Esse processo é chamado de desfragmentação, e o Tecmundo já publicou diversos artigos sobre o assunto.

Em teoria, reorganizar esses blocos de dados ajuda a agilizar o acesso aos arquivos: por estarem todos mais próximos e organizados, não é necessário tanto movimento mecânico da cabeça de leitura do HD. Porém, muita gente acha que desfragmentar demais um disco pode fazê-lo “pifar” mais rapidamente.

Desfragmentar causa desgaste?

É possível argumentar que, como o processo de desfragmentação causa muita atividade mecânica do disco, ele também acaba, consequentemente, diminuindo o tempo de vida do componente, já que provocaria mais desgastes. Porém, não há nada que possa comprovar essa teoria.

Para começar, o desgaste provocado pela ação de desfragmentação parece ser compensado pela economia de movimento que a cabeça de leitura fará nos próximos dias, já que os dados são reorganizados. Mas é claro que não há nada que comprove isso de fato, pois essa é uma atividade muito difícil de ser medida e, pelo visto, não muito relevante para a indústria.

Mito ou verdade: desfragmentar o HD diminui a vida útil do disco?

Funcionários da Google não encontraram relação entre nível de utilização e falhas (Fonte da imagem:Shutterstock)

Porém, há um estudo de caso muito interessante apresentado por funcionários da Google em uma conferência sobre tecnologias de arquivos e armazenamento que pode ajudar a trazer alguma espécie de iluminação científica sobre o assunto.

Relação entre falhas e nível de utilização

Como a Google trabalha com uma enorme quantidade de dados, fica fácil deduzir que a empresa possui muita experiência no gerenciamento de discos rígidos. Em um estudo apresentado por Eduardo Pinheiro, Wolf-Dietrich Weber e Luiz André Barroso, funcionários da empresa, mais de cem mil HDs foram analisados, na tentativa de encontrar em um padrão que tenha levado esses equipamentos à falha.

O resultado? Bem, digamos que é um pouco decepcionante: “Nossos dados indicam que há uma relação muito mais fraca entre níveis de utilização e falhas do que estudos anteriores atestavam”. Em suma, não há nada que comprove, de fato, esse impacto negativo pelo uso exaustivo do equipamento.

De acordo com o paper apresentado pelo grupo, apenas HDs muito novos ou muito velhos costumam apresentar problemas. É como se, no reino dos discos rígidos, valesse a lei do mais forte. Se o drive sobreviver aos primeiros anos de sua “infância”, é provável que terá muito tempo de vida pela frente.

Conclusão: use o defrag sem medo

Mito ou verdade: desfragmentar o HD diminui a vida útil do disco?

Não há nada que comprove a relação entre desfragmentação e redução do tempo de vida. O impacto causado pela reorganização lógica dos dados de um HD, durante o processo, não é preocupante e, na pior das hipóteses, pode ajudar você a acessar mais rapidamente seus arquivos.

Entretanto, vale o bom senso: não há a necessidade de desfragmentar o seu HD todo dia. Fazer isso uma vez por mês, por exemplo, já é mais do que o suficiente para garantir um melhor desempenho para a máquina.

Por Felipe Arruda em 6 de Junho de 2012

Leia mais em: http://www.tecmundo.com.br/mito-ou-verdade/24704-mito-ou-verdade-desfragmentar-o-hd-diminui-a-vida-util-do-disco-.htm#ixzz2t24mb4r5

Como melhorar o desempenho de um HD

O disco rígido é o único componente da informática que evolui em ritmo desacelerado. O HD tem algumas limitações de velocidade, as quais geralmente estão ligadas aos componentes mecânicos incapazes de acelerar a leitura e gravação de dados.

Como melhorar o desempenho de um HD

(Fonte da imagem: iStock)

O baixo desempenho é notável no dia a dia, visto que os demais itens do PC dependem dos dados armazenados no HD. Claro, essa diminuição de velocidade é muito mais agravante em aplicações mais exigentes e jogos. Para contornar parte do problema, o Tecmundo elaborou algumas dicas rápidas para você acelerar o disco.

Turbinando o HD

Antes de configurar a parte virtual, vamos realizar uma manutenção dentro do gabinete.

  1. Primeiro, verifique se o disco está devidamente parafusado. Caso o seu gabinete não conte com travas simplificadas, certifique-se de instalar quatro parafusos para que o disco não sofra com possíveis trepidações;
    Como melhorar o desempenho de um HD
  2. Instale uma solução de refrigeração capaz de manter o HD em temperaturas razoáveis. Um cooler na parte frontal e outro na traseira do gabinete devem ser suficientes;
  3. Confira se a fonte instalada oferece energia suficiente. Nessa parte do processo, vale verificar se não há variações de energia na tomada. Se necessário, instale um filtro de linha ou um estabilizador;
  4. Se o HD instalado for do tipo IDE (aqueles que são conhecidos como PATA), você deve garantir que um cabo Ultra DMA esteja instalado. Esse cabo é o mais grosso, aquele que tem 80 vias. Detalhe: para não dividir o canal de dados, deixe somente o disco rígido conectado no primeiro canal;
    Como melhorar o desempenho de um HD
  5. Fonte da imagem: Reprodução/Jonas Bergsten (Wikimedia Commons)
  6. Confira se não há nenhum jumper complicando a configuração do dispositivo. O ideal é deixar o disco configurado como Master;
  7. Caso sua placa-mãe seja compatível com HDs SATA, procure utilizar o padrão mais recente suportado e verifique se o HD não está configurado para operar em modo de compatibilidade;
  8. Entre na BIOS e observe se a configuração está correta. O ideal é que haja suporte para 32-bits e que a opção “Block Mode” esteja ativada;
  9. Se você tiver dúvidas durante a instalação do HD, confira nosso vídeo:

Antes de instalar o Linux

Caso você esteja realizando uma nova instalação do Linux, crie a partição swap antes da raiz. Siga as recomendações da distribuição que você está instalando. O sistema operacional do Pinguim necessita dos primeiros blocos do disco rígido para poder trabalhar com arquivos temporários. Isso acelera o desempenho do computador consideravelmente.

Instalação do Windows

Na hora de instalar o Windows, é recomendável fazê-lo em uma participação à parte. Portanto, antes de começar o processo, particione seu disco rígido, deixando um espaço considerável para o sistema, programas essenciais e arquivos temporários.

Como melhorar o desempenho de um HD

Vamos dar um exemplo: caso seu HD tenha 500 GB de capacidade, vale deixar 100 GB para a instalação do Windows. Os quase 400 GB restantes devem compor a partição secundária, a qual servirá para armazenar seus documentos e evitar perdas de dados em situações que seja necessário reinstalar o sistema operacional.

Memória virtual do Windows

O sistema da Microsoft armazena os arquivos temporários em um arquivo de paginação. Se seu computador tiver no mínimo 8 GB de memória RAM, você pode desativar este recurso.

Contudo, caso seu PC não esteja devidamente munido, vale realizar uma configuração no arquivo de paginação. Veja como proceder:

  1. No Menu Iniciar, clique com o botão sobre “Computador” e abra as “Propriedades”;
    Como melhorar o desempenho de um HD
  2. À esquerda da janela, clique em “Configurações Avançadas do Sistema”;
    Como melhorar o desempenho de um HD
  3. Na seção “Desempenho”, abra o item “Configurações”;
    Como melhorar o desempenho de um HD
  4. Selecione a aba “Avançado”. No campo “Memória Virtual”, clique em “Alterar…”;
    Como melhorar o desempenho de um HD
  5. Desmarque a caixa “Gerenciar automaticamente o tamanho do arquivo de paginação de todas as unidades”;
  6. Agora, clique em “Tamanho personalizado”. No campo “Tamanho inicial”, insira no mínimo 1024 MB para que o sistema possa descarregar o Kernel em caso de emergência. Em “Tamanho máximo”, informe o valor de 4096 MB ou o triplo da quantidade de memória RAM instalada.Como melhorar o desempenho de um HD

Manutenção preventiva

Tendo instalado o disco corretamente e configurado o sistema para aproveitá-lo da melhor forma, basta você realizar a desfragmentação esporádica. Esse processo ajuda a organizar os dados do HD, o que facilita os procedimentos de leitura e escrita.

Como melhorar o desempenho de um HD

O desfragmentador do Windows pode quebrar um galho, todavia, recomendamos uma organização na bagunça com o Auslogics Disk Defrag — um programa que pode desfragmentar e otimizar o seu computador. Se você utiliza Linux, pode conferir o artigo “Mito ou verdade: precisa desfragmentar discos que rodam o Linux?” para aprender como realizar uma desfragmentação.

Dicas úteis para comprar um HD novo

Com o tempo, o disco rígido pode apresentar problemas ou não oferecer espaço suficiente para seus dados. Se este for o caso, a aquisição de um novo componente pode ser interessante. Contudo, a compra de um HD deve ser planejada, pois cada mínimo detalhe faz diferença na hora de executar softwares robustos. Fique atento aos seguintes fatores:

  • Memória cache: opte por um modelo com 32 ou 64 MB;
  • Rotações por minuto: discos de 7.200 RPM são mais rápidos;
  • Tempo médio de acesso: escolha um HD com o menor valor possível;
  • Tecnologia: prefira um componente com recursos mais avançados e pesquise para se informar sobre o que cada fabricante oferece;
  • Interface: busque um disco com o padrão mais atualizado (hoje, é o SATA III);
  • Espaço de armazenamento: adquira um produto com o maior tamanho possível, pois a tendência é aumentar cada vez mais o tamanho dos arquivos e programas.

Claro, todas essas dicas podem resultar em pequenas melhorias, porém não podemos garantir que seu computador vai ficar muito mais veloz, porque os discos rígidos já não são mais tão rápidos. Parece que a evolução para o SSD será inevitável, ao menos no que diz respeito à velocidade.

Por Fabio Jordão em 9 de Maio de 2012

Leia mais em: http://www.tecmundo.com.br/disco-rigido/23329-como-melhorar-o-desempenho-de-um-hd.htm#ixzz2t22XK1n2

Leia mais em: http://www.tecmundo.com.br/disco-rigido/23329-como-melhorar-o-desempenho-de-um-hd.htm#ixzz2t2264tBe

SSD: está na hora de aposentar o seu HD ou os preços ainda são proibitivos?

Infográfico - SSD: está na hora de aposentar o seu HD ou os preços ainda são proibitivos?

Lá em 2009, fizemos um artigo comparando o HD ao SSD. Na época, chegamos à conclusão de que não compensava comprar um SSD, devido ao alto preço e às pequenas vantagens.

Dois anos depois, fizemos uma matéria completa, dando explicações sobre o funcionamento de cada dispositivo e sugerindo que o SSD poderia destronar o HD.

Agora que as duas tecnologias estão mais evoluídas, os preços reduziram consideravelmente e algumas tarefas podem exigir uma mudança no tipo de armazenamento, uma retomada ao debate é necessária. Afinal, será que vale a pena investir em um SSD ou o disco rígido ainda terá vida longa e próspera?

SSD: está na hora de aposentar o seu HD ou os preços ainda são proibitivos? (Fonte da imagem: Divulgação/Sandisk)

Antes de chegarmos a um veredito, vamos conferir as principais vantagens que cada componente oferece, quais são os mais robustos atualmente e realizar uma comparação entre diversos modelos.

Considerações sobre a tabela

Os dados de nossa tabela foram obtidos nos sites oficiais e nas lojas online que usamos para pesquisa. As páginas que usamos para averiguar os preços são as seguintes: Pichau, Balão da Informática, MegaMamute, Kabum!, Newegg e Amazon. Os valores informados foram obtidos no dia 29/11/2013, sendo que usamos os menores preços.

Como você pôde conferir no começo do artigo, os preços dos SSDs ainda são proibitivos no Brasil. Com o valor de um SSD de 128 GB (com velocidade de escrita bem baixa), você pode comprar um HD de 2 TB (de acordo com os testes do Hardware Luxx, o Toshiba citado na tabela é um dos melhores discos com tamanha capacidade de armazenamento).

Se levarmos em conta os valores em dólares, seria possível adquirir um disco rígido de 3 TB da Seagate em vez de pegar um SSD Kingston de apenas 120 GB. São 25 vezes mais espaço pelo mesmo preço. Claro, mesmo sendo um modelo de alta performance (algo comprovado pelo AnandTech), o desempenho do HD tende a ser inferior ao do SSD.

SSD: um item essencial para algumas situações

De fato, não é novidade alguma que os drives de estado sólido oferecem desempenho muito além daquele que é possível alcançar nos discos rígidos, entretanto é preciso considerar que isso nem sempre se faz verdade. Tudo depende muito do modelo com que estamos tratando e da atividade em que o dispositivo será utilizado.

SSD: está na hora de aposentar o seu HD ou os preços ainda são proibitivos?

(Fonte da imagem: Reprodução/PC World)

Se você acompanha análises de dispositivos de hardware, talvez já tenha visto diversos sites (incluindo o Tecmundo) apontando o SSD como a melhor opção para jogos. A combinação entre SSD para sistema e jogos e HD para armazenamento geral já foi apontada como uma boa solução para gamers que necessitam de um desempenho extra e que não querem gastar.

A verdade é que o SSD tende a ser mais rápido na maior parte das ocasiões, mas é importante verificar os testes de cada modelo antes de tomar qualquer decisão, visto que os resultados práticos muitas vezes destoam das especificações. Há situações que um ou outro disco rígido acaba empatando ou até superando algum SSD.

Os fóruns são ótimos locais para consulta, inclusive usamos alguns como referência neste artigo. Abaixo, há uma tabela, que está em um tópico do fórum da Adrenaline, a qual contém diversas informações úteis que podem vir a calhar na hora que você for comprar seu SSD. Confira:

SSD: está na hora de aposentar o seu HD ou os preços ainda são proibitivos?

Ampliar (Fonte da imagem: Reprodução/Adrenaline)

A questão da sobrescrita

Um dos principais pontos apontados como uma desvantagem do SSD é a quantidade de ciclos de escrita reduzida. Se alguma vez isso foi um problema, tal inconveniente já não existe nos atuais SSDs. De acordo com os testes do Hardware.info, um Samsung 840 250GB TLC pode perdurar por até 24 anos em um PC no qual sejam baixados 32 GB de dados todos os dias.

A Corsair não informa em seu site oficial a quantidade de ciclos de seus dispositivos, mas disponibiliza a quantidade de horas que o SSD deve durar: 2 milhões de horas. Isso quer dizer que um drive da marca pode durar até 228 anos, algo que ninguém conseguirá comprovar se é realmente verdade.

Seja como for, a troca de um dispositivo de armazenamento geralmente é mais frequente (5 ou 6 anos é uma média aceitável, e dificilmente alguém fica 10 anos com o mesmo HD), portanto não é necessário ficar preocupado com esse detalhe, pois os atuais drives de estado sólido devem durar tempo suficiente para você precisar adquirir um de maior capacidade.

HD: espaço de sobra para você guardar tudo

Nessa guerra entre SSD e HD, os argumentos são sempre os mesmos e cada vez ficam mais gritantes. No caso do SSD, tudo é pautado no desempenho, enquanto no HD caímos no velho papo da capacidade de armazenamento.

SSD: está na hora de aposentar o seu HD ou os preços ainda são proibitivos?

(Fonte da imagem: Divulgação/Seagate)

Se há algum tempo os discos rígidos reinavam soberanos com versões de 1 e 2 TB — época em que SSDs comportavam apenas 256 ou 512 GB—, hoje, esta diferença é mais notável com modelos que chegam a guardar 3 e 4 TB (enquanto o mais moderno SSD oferece 1 TB).

De fato, nesse quesito, não há como discutir. Os HDs continuam sendo a única opção viável para quem necessita guardar uma grande quantidade de arquivos e, segundo a declaração da Seagate à Computer World, parece que os discos rígidos vão continuar inalcançáveis, com componentes que podem guardar até 5 TB já em 2014. O plano é alcançar 20 TB em 2020.

Um problema com consumo

Além da questão do desempenho, os HDs deixam a desejar pelo consumo de energia excessivo. Apesar de os modelos mais recentes estarem bem caprichados nesse sentido, a presença dos componentes mecânicos acaba resultando em um problema para quem usa notebooks, os quais podem se beneficiar de componentes com melhor eficiência energética.

Conforme o site da OCZ, um SSD é otimizado para ser três vezes melhor que o HD nesse sentido, sendo que o disco rígido pode chegar a consumir 6 W quando estiver trabalhando constantemente, enquanto que o drive de estado sólido usa menos de 2 W.

Outros fatores a se considerar

Os HDs ainda sofrem com outros dois inconvenientes: o peso e o calor. Para poder oferecer maior capacidade de armazenamento, as fabricantes inserem mais discos dentro do componente, o que, evidentemente, acarreta o aumento do peso. Certamente, para desktops isso não é um problema, mas, no caso dos notebooks, tal detalhe pode incomodar.

O calor gerado pelo trabalho contínuo é outro porém que não existe no SSD. Devido à operação mecânica constante, o disco rígido acaba esquentando muito mais do que um drive de estado sólido. Na maioria dos casos, uma solução simples (às vezes, não é preciso nem usar uma ventoinha) de refrigeração resolve o problema. De qualquer forma, é algo que deve ser colocado na balança na hora de adquirir um novo drive de armazenamento.

SSHD: um novo competidor entra em cena

Não é de hoje que as fabricantes de drives vêm bolando ideias para contornar os problemas dos SSDs (o preço e o espaço para armazenamento) e dos HDs (a velocidade e o consumo de energia). Uma das melhores soluções encontradas foi o SSHD (drive de estado sólido híbrido). Como o nome sugere, este componente é um meio termo entre o SSD e o HD.

O SSHD conta com discos comuns para o armazenamento geral de arquivos, o que garante boa capacidade para armazenamento. Todavia, há uma parte do componente que traz módulos de memória flash que servem para acelerar o desempenho das principais atividades.

SSD: está na hora de aposentar o seu HD ou os preços ainda são proibitivos?

(Fonte da imagem: Divulgação/Seagate)

O principal diferencial deste produto está na forma inteligente de trabalho. Graças ao hardware e software especializado, o SSHD identifica quais dados são mais utilizados e copia tais informações do disco (que pode ser de 2 TB) para a memória flash (de apenas 8 GB).

Com essa pequena ação, o SSHD consegue economizar alguns segundos em diversas situações, seja no carregamento do sistema ou na hora de rodar algum game. O Tested até já verificou como o SSHD funciona no PS4 e comprovou que ele pode oferecer vantagens e até se igualar ao SSD em alguns casos.

Além de oferecer alta velocidade e espaço de sobra, este tipo de componente se destaca pelos preços reduzidos, que geralmente são similares aos dos discos rígidos. Infelizmente, os SSHDs ainda são raros no Brasil, mas vale ficar de olho nesta tendência, pois ela pode fazer parte da sua máquina em um futuro não muito distante.

Moral da história

Certamente, os SSDs são incomparáveis no quesito desempenho. Também, não podemos deixar de notar que eles oferecem uma série de outras vantagens que podem vir a calhar em diversas situações. Contudo, todo esse poderio vem acompanhado de um preço bem salgado, assim, como já suspeitávamos, os SSDs ainda não são acessíveis no Brasil.

A parte interessante de revisitar este tópico é perceber que, com a chegada de componentes de maior capacidade e desempenho, alguns modelos mais básicos estão tendo seus valores reduzidos. Atualmente, podemos dizer que faz muito sentido e vale a pena investir na combinação SSD de pequena capacidade somado a um HD com muito espaço.

SSD: está na hora de aposentar o seu HD ou os preços ainda são proibitivos?

(Fonte da imagem: Divulgação/Corsair)

Claro, antes de sair pesquisando e comprando, você deve avaliar as suas necessidades. Às vezes, os programas e jogos que você executa em sua máquina não requisitam tamanho desempenho. Agora, se você está sentindo alguma engasgada ao rodar games como Battlefield 4 e já se certificou que o problema não é a placa de vídeo, então a solução é apostar no SSD.

Por Fabio Jordão em 2 de Dezembro de 2013

Leia mais em: http://www.tecmundo.com.br/ssd/47743-ssd-esta-na-hora-de-aposentar-o-seu-hd-ou-os-precos-ainda-sao-proibitivos-.htm#ixzz2t21PNqSq

 

 

O que é memória RAM? [vídeo]

computador precisa de algumas peças para funcionar, e a memória RAM é uma das principais. Como você já deve saber, o processador funciona como o cérebro da máquina, porém, ele não tem uma memória muito grande.

A função da memória RAM é guardar dados temporariamente para que o processador possa acessar informações importantes com rapidez. Só para deixar mais claro, todo aplicativo ou jogo que você abre precisa guardar os arquivos mais usados em algum lugar, daí a necessidade da RAM.

Que tipo de memória é essa?

Apesar de armazenar arquivos, a memória RAM não executa a mesma tarefa que o disco rígido. Diferente do HD, ela é um componente volátil, ou seja, não mantém informações permanentemente. Isso significa que, quando você desligar o PC, todo o conteúdo que está gravado nela será apagado.

O que é memória RAM? [vídeo]

Acesso aleatório (Fonte da imagem: Reprodução/HowStuffWorks)

Outra característica que a diferencia dos demais tipos de memória é o tipo de funcionamento. A sigla RAM significa Memória de Acesso Aleatório, ou seja, os dados não são armazenados ou acessados de forma sequencial. Tal característica garante versatilidade à memória, pois os demais componentes do computador podem acessar qualquer conteúdo dela de forma rápida.

Quantidade e velocidade

É importante salientar que, quanto maior a quantidade de memória disponível, mais programas podem ser abertos. Para games, a memória RAM desempenha um papel mais importante, pois os jogos precisam armazenar dados constantemente e acessá-los com grande velocidade, visto que CPU e placa de vídeo trabalham constantemente para oferecer a continuidade das fases.

O que é memória RAM? [vídeo]

(Fonte da imagem: Reprodução/G.Skill)

Claro, por se tratar de um local de armazenamento de arquivos temporários, a memória RAM não precisa ter a mesma capacidade de um disco rígido. Basicamente, a quantidade depende do sistema operacional e dos softwares utilizados. Aplicativos mais robustos podem exigir mais memória, visto que eles trabalham com um grande volume de informação.

Além da quantidade de espaço, a memória RAM grava os dados em uma frequência para a qual foi programada. Da mesma forma, outros componentes acessam as informações usando o mesmo clock, possibilitando a sincronia e o perfeito funcionamento. Esse valor é especificado em MHz ou GHz, sendo que, quanto maior, mais rápido é o funcionamento da memória.

O padrão atual

Para facilitar um pouco, as fabricantes trabalham com padrões. Atualmente, as memórias do tipo DDR3 são as mais populares, todavia, conforme proceder a evolução dos computadores, novas especificações serão adotadas. Como você deve imaginar, o próximo padrão para PCs será o DDR4.

O que é memória RAM? [vídeo]

(Fonte da imagem: Divulgação/Corsair)

 

Memória RAM do tipo DDR também pode ser encontrada em placas de vídeo, smartphones e outros gadgets. Alguns aparelhos, como o PlayStation 3, utilizam outros padrões, como o XDR, mas essa é outra história que abordamos previamente em um artigo no Tecmundo. Esperamos que as informações tenham sido claras. Até uma próxima!

Por Fabio Jordão em 28 de Maio de 2012

Leia mais em: http://www.tecmundo.com.br/memoria/918-o-que-e-memoria-ram-video-.htm#ixzz2t20FDzWk

Leia mais em: http://www.tecmundo.com.br/memoria/918-o-que-e-memoria-ram-video-.htm#ixzz2t20AESi5

Quais os melhores processadores para rodar jogos?

Quando o assunto é desempenho em jogos para computador, ninguém discorda que uma boa placa de vídeo dedicada é essencial. Porém, apenas uma GPU de qualidade não garantirá um desempenho excepcional se o seu processador for limitando. Ainda que um processador de baixo desempenho possa ser contrabalanceado com uma GPU top, é preciso compreender alguns conceitos para evitar “gargalos”, ou seja, limitações de rendimento.

– CPU: quanto mais cores, melhor (mas nem tanto)

Um recurso limitante em vários jogos, e que pode acusar até gerar problemas de incompatibilidade, é a frequência dos núcleos do processador. Embora um processador Dual Core até possa rodar games atuais, CPUs de quatro ou seis núcleos são praticamente unanimidade na configuração de um computador possante.

Quantidade e frequência dos núcleos influência na performance em jogos (Foto: Divulgação)
Quantidade e frequência dos núcleos influenciam na performance em jogos (Foto: Divulgação)

Ao comprar um computador (ou apenas o processador), é preciso estar atento para o modelo, e não apenas para o “nome comercial”. Exemplos típicos são vários modelos de processador Intel Core i3 que possuem apenas dois núcleos físicos.

Ainda que núcleos sejam importantes, caso o processador do seu computador seja um Dual Core potente, como o Intel Core i3-4130, você poderá equipá-lo com placa gráfica e garantir resultados satisfatórios. A sugestão de quatro ou mais núcleos deve ao fato de que alguns jogos podem não rodar por reconhecerem que os requisitos mínimos exigidos não estão presentes.

– Arquitetura de 64 bits

Outro aspecto do processador com excelência em games é a arquitetura de processamento. Mesmo que existam vários modelos de qualidade com 32 bits, quando o assunto é poder de fogo, a arquitetura de 64 bits garante uma boa margem de folga. Sua influência vai até mesmo para outros componentes, como memória RAM.

Assim como no quesito dos núcleos, a sugestão da arquitetura x64 é para que o usuário não seja limitado por algum outro, recurso ou que o jogo se reconheça incompatível com a sua máquina.

– Os melhores processadores para jogos

Confira agora uma seleção com os melhores processadores do mercado, avaliados apenas no quesito games. A lista apresentada avalia não apenas o poder do processador, mas também o seu custo benefício, já que o dinheiro gasto para comprar um processador muito caro pode ser economizado para comprar uma GPU top de linha.

– Intel Core i5-4670K (em torno de R$ 800 Reais)

Como dito no tópico anterior, muitas vezes não se necessita de um processador de seis núcleos com 12 threads para rodar jogos pesados. Como todo processamento gráfico ficará a cargo da GPU, um processador de qualidade será como um “coadjuvante” na maior parte do tempo. Nesse aspecto, a melhor opção é o processador Intel Core i5-4670K. Com quatro núcleos reais, esse processador é integrante da mais nova arquitetura da Intel, a Haswell.

Core i5 4670K é o precessador com melhor relação custo-benefício par gamers (Foto: Divulgação/Intel)
Core i5 4670K é o precessador com melhor relação custo-benefício para gamers (Foto: Divulgação/Intel)

O Intel Core i5-4670K pode chegar até 3.8 GHz, e até passar disso com uma refrigeração adequada. Toda essa potência, aliada às últimas GPU do mercado, garante que ele tenha um desempenho, em games, igual ao do processador de seis núcleos, Core i7-4770K, que custa mais do dobro do preço.

– AMD FX-6300 (em torno de R$ 500 Reais)

O processador AMD FX-6300 tem um desempenho inferior ao de processadores Core i5 com quatro núcleos da Intel. Porém, o preço, a quantidade de núcleos e o multiplicador destravado são características apreciadas pelos fãs de overclocking.

Lançado em 2012, FX-6300 tem boa relação custo benefício (Foto: Reprodução / Xbitlabs)
Lançado em 2012, FX-6300 tem quantidade de núcleos e multiplicador destravado como pontos fortes (Foto: Reprodução / Xbitlabs)

O custo-benefício é uma das maiores qualidades desse processador. É fácil encontrar ele montado em computadores com boas especificações por pouco mais de mil reais. Por ser de fabricação da AMD, outra vantagem do processador FX-6300, é que a maioria das placas-mãe compatíveis com ele possuírem uma GPU onboard de qualidade. As GPU onboard da AMD não possuem o mesmo desempenho das placas offboard, mas garantem um desempenho interessante para quem quer um PC Gamer de médio porte.

– Intel Core i7-4930K (Em torno de R$ 2 mil reais)

O processador Intel Core i7-4930K não é o top de linha da empresa, mas suas configurações, ainda assim, impressionam. São 3.9 GHz em modo turbo e 12 MB de memória cache. Além disso, o processador, em conjunto com a placa-mãe, suporta operar os pentes de memória RAM em Quad-Channel 1866, suportando até 64 GB.

Core-i7-4930K é um dos melhores processadores da atualidade (Foto: Reprodução / extremespec.net )
Core-i7-4930K é um dos melhores processadores da atualidade (Foto: Reprodução / extremespec.net )

Ainda que seja de uma arquitetura anterior, o i7-4930K entrega 95% desempenho do seu irmão mais novo, o i7-4770K. Ambos possuem preços similares, mas por possuir mais memória cache e capacidade de trabalhar com mais memória RAM, o i7-4930K é o que há de melhor em termo de processadores para jogos. Qualquer processador mais potente seria um desperdício de dinheiro, pois seria difícil encontrar um jogo que necessitasse de tanta CPU. Entrentanto, vale lembrar mais uma vez que estamos citando exclusivamente CPUs, GPUs são assunto para outro artigo.

– Intel Core i3-4130 (Em torno de R$ 400 reais)

De todos da lista, o Intel Core i3-4130 é o processador mais básico, com apenas dois núcleos. E por que ele está na lista? Como a maioria dos jogos atuais tem configurações mínimas de apenas dois núcleos, o processador Intel Core i3-4130, aliado a uma boa GPU, ainda consegue rodá-los com uma boa qualidade, permitindo “setar” os gráficos até em High.

Core i3-4130 é um processador básico, mas contém o essencial para jogos (Foto: Montagem / Dario Coutinho)
Core i3-4130 é um processador básico, mas contém o essencial para jogos (Foto: Reprodução / Dario Coutinho)

Tal fato se deve à longevidade das CPUs dada a elas pela limitação visual dos jogos trazida pelos consoles. Basta lembrar que jogos como Battlefield 4 ainda rodam no Xbox 360, lançado nove anos atrás. Com isso, um dos processadores tidos como básicos da nova geração da Intel, pode rodar tranquilamente jogos pesados, desde que tenha uma boa GPU para compor o conjunto.

– AMD FX-8350 (em torno de R$ 600 reais)

Como é de costume nos processador da AMD, o FX-8350 tem ótima relação custo-benefício. O exagero de especificações do FX-8350, entretanto, não se traduz em um desempenho superior ao de um Core i5.

AMD FX-8350 impressa pelas especificações (Foto: Reprodução / Wccftech)
AMD FX-8350  tem boas especificações e ótima relação custo-benefício (Foto: Reprodução / Wccftech)

Porém, o seu preço é algo que o usuário não pode ignorar. Em se tratando exclusivamente de games, um processador muito caro seria um desperdício, pois uma boa GPU atuando em conjunto com o FX-8350 pode resultar em um bom frame rate em jogos pesados. É possível montar um bom PC com o processador AMD FX-8350, 8GB de memória RAM com velocidade de 1866MHZ por menos de R$ 1700 reais, por exemplo.

Então, lembre-se sempre que, além de escolher um processador é fundamental comprar uma GPU capaz de rodar os jogos com alta qualidade gráfica sem problemas. Contando com uma máquina equilibrada, será possível se divertir jogando no seu computador sem gastar uma fortuna, além de trabalhar com outras funcionalidades, como edição de vídeos e imagens.

por 
Para o TechTudo

Referencia: http://www.techtudo.com.br/dicas-e-tutoriais/noticia/2014/02/quais-os-melhores-processadores-para-rodar-jogos.html

A História dos Processadores

O processador, também conhecido como CPU, é peça fundamental dos computadores. E não estamos falando apenas dos famosos PCs. Celulares, video games, smartphones, tablets: todos esses dispositivos precisam de processadores para funcionar. Esse componente tão vital é responsável por carregar e realizar as operações aritméticas e lógicas de que os programas de computador fazem uso. Portanto, nada funciona sem a famosa CPU.

Levou décadas para que chegássemos aos modelos atuais de processadores. Na verdade, demoramos alguns anos para chegar também à ideia que temos hoje de como uma CPU funciona. Antes, os softwares não eram compatíveis com todos os modelos de computador, já que eles eram desenvolvidos especificamente para cada máquina.

Isso estava relacionado ao fato de que cada computador era como uma plataforma diferente. Muitas vezes, existia incompatibilidade até mesmo entre modelos de um mesmo fabricante. Por incrível que pareça, isso não chegava a ser uma barreira preocupante, visto que a produção de software ainda não era alta e não existiam muitos programas disponíveis.

Precursores da CPU moderna: anos 40, 50 e 60

A história dos processadores

Painéis do ENIAC em exposição na Universidade da Pensilvânia (Fonte da imagem: Wikimedia Commons)

Os primeiros computadores, anteriores à década de 50, possuíam um diferencial considerável, se comparados com as máquinas de hoje: eles não eram capazes de armazenar programas. Alguns deles, como o ENIAC, que teve seu desenvolvimento iniciado em 1943, tinham inicialmente o plano de armazenamento de softwares em seu interior. Mas, para agilizar o lançamento da máquina, essa ideia acabou ficando para trás.

Dessa forma, o ENIAC tinha que ser modificado fisicamente cada vez que uma tarefa diferente fosse executada. Cabos deveriam ser reposicionados, chaves ligadas ou desligadas e um novo programa ser carregado. Era dessa forma que o processamento em si era realizado.

A história dos processadores

EDVAC instalado no Laboratório de Pesquisas Balísticas dos EUA

Em 1945, a ideia de uma unidade central de processamento capaz de executar diversas tarefas foi publicada por John Von Neumann. Chamado de EDVAC, o projeto desse computador foi finalizado em 1949. Essa é a origem dos primeiros modelos “primitivos” de processadores da forma como os conhecemos. Além disso, o EDVAC e outros computadores, como o Mark I, da Universidade de Harvard, marcam o início da era dos computadores modernos, capazes de armazenar programas.

Durante a década de 50, a organização interna dos computadores começou a ser repensada. Esse foi o momento em que os processadores começaram a ganhar funcionalidades básicas, como registradores de índices, operandos imediatos e detecção de operadores inválidos.

No início da década de 60, a IBM desenvolveu uma nova abordagem: planejou uma família de computadores que poderiam executar o mesmo software, com poder de processamento e preços diferentes. Com isso, os programas não seriam mais dependentes de máquina, mas compatíveis entre todos esses modelos.

Para colocar isso em prática, a IBM acabou criando um computador virtual conhecido como System/360, ou simplesmente S/360.  Podemos pensar nesse sistema como um conjunto de instruções e capacidades que todos os computadores da família S/360 teriam em comum.

Processadores Modernos

Nos modelos apresentados acima, os processadores ainda não eram compostos por uma unidade central, mas por módulos interconectados entre si.  Foi só no início da década de 70 que surgiram as CPUs desenvolvidas totalmente em circuitos integrados e em um único chip de silício.

Geração Pré-x86

A história dos processadores

Intel 4004 foi o primeiro microprocessador da história (Fonte da imagem: Wikimedia Commons)

O Intel 4004 foi o primeiro microprocessador a ser lançado, em 1971. Sendo desenvolvido para o uso em calculadoras, essa CPU operava com o clock máximo de 740 KHz e podia calcular até 92 mil instruções por segundo, ou seja, cada instrução gastava cerca de 11 microssegundos.

Com o sucesso do 4004, a Intel desenvolveu o processador 8008, em 1972. Esse era uma CPU de 8 bits, com barramento externo de 14 bits e capaz de endereçar 16 KB de memória. Seu clock trabalhava na frequência máxima de 0,8 MHz.

Esse modelo foi substituído, em 1974, pelo Intel 8080, que apesar de ainda ser um processador de 8 bits, podia executar, com algumas limitações, operações de 16 bits. O 8080 foi desenvolvido, originalmente, para controlar mísseis guiados. Tinha clock limite de 2 MHz, um valor muito alto para a época, era capaz de realizar centenas de milhares de operações por segundo e de endereçar até 64 KB de memória.

A família x86 de 16 bits

A arquitetura x86, lançada em meados da década de 70, ainda serve como base para boa parte dos computadores atuais. O primeiro processador que aproveitou todo o seu potencial foi o Intel 8086, de 1978. Pela primeira vez, a velocidade do clock alcançava 5 MHz, utilizando instruções reais de 16 bits. O nome “x86” veio do fato de que o nome dos processadores que vieram depois do Intel 8086 também terminavam em “86”.

Ainda no mesmo ano, foi lançado o 8088, sucessor que possuía barramento externo de 8 bits, porém, com registradores de 16 bits e faixa de endereçamento de 1 MB, como no 8086. Esse foi o chip utilizado no IBM PC original.

A história dos processadores

Microprocessador Intel 80286 de 8 MHz (Fonte da imagem: Wikimedia Commons)

Nos anos seguintes, a Intel desenvolveu os modelos 80186 e 80188, criados para serem usados com sistemas embarcados.  Em 1982, a capacidade de processamento chegou ao patamar de 6 e 8 MHz, com o Intel 80286. Posteriormente, as empresas AMD e Harris Corporation conseguiram romper essa barreira, chegando a 25 MHz.

Entram as CPUs de 32 bits (x86-32)

Como o nome sugere, a x86-32 é arquitetura x86 de 32 bits, utilizada até hoje em muitos computadores. Grosso modo, podemos dizer que, com exceção de processadores de 64 bits e aqueles de arquitetura ARM, todos os outros existentes ainda hoje são herdeiros das características dessa geração.

Os famosos 386 e 486

As CPUs 80386 e 80486, lançadas entre o meio e o fim da década de 80, trabalhavam com clocks que iam de 33 MHz a 100 MHz, respectivamente. O 80386 permitiu que vários programas utilizassem o processador de forma cooperativa, através do escalonamento de tarefas. Já o 80486 foi o primeiro a usar o mecanismo de pipeline, permitindo que mais de uma instrução fossem executadas ao mesmo tempo.

A história dos processadores

Processador 486 DX, mais rápido se comparado com a versão SX (Fonte da imagem: Wikimedia Commons)

Para o 80486, existiram diversas versões, sendo que cada uma delas possuía pequenas diferenças entre si. O 486DX, por exemplo, era o top de linha da época e também a primeira CPU a ter coprocessador matemático. Já o 486SX era uma versão de baixo custo do 486DX, porém, sem esse coprocessador, o que resultava em um desempenho menor.

A guerra entre Intel e AMD

As séries de processadores Intel e AMD marcaram época no mundo da informática, através de suas diferentes versões. O primeiro Pentium (Intel), lançado em 1993, apresentava várias melhorias sobre o 80486, principalmente por uso da superescalabilidade, ou seja, a replicação de hardware para que mais instruções fossem executadas ao mesmo tempo. Seu clock inicial era de 100 MHz, o qual chegou a atingir 200 MHz com o passar do tempo de desenvolvimento.

A história dos processadores

Processador Intel Pentium A80501, de 66 MHz (Fonte da imagem: Wikimedia Commons)

Em 1995, a Intel lançava o Pentium Pro, sexta geração de chips x86 e que possuía uma série de melhoramentos em relação ao seu antecessor. Essa seria a base para os futuros lançamentos: Pentium II, Pentium III e Pentium M.

Paralelamente, a AMD começava a ganhar mercado com modelos similares, principalmente como o AMD K5, forte concorrente do Pentium original. Dois anos depois, o Pentium II foi lançado, atingindo o clock de 450 MHz.

Nessa mesma época, a AMD desenvolveu CPUs que batiam de frente com a Intel, como o AMD K6. Por esse motivo, ambas as empresas travaram uma espécie de “corrida”, competindo para ver quem conseguia o maior desempenho e valor de clock.

A lei de Moore

Em 1965, Gordon Moore, um dos fundadores da Intel, afirmou que o número de transistores em um chip dobraria, sem custo adicional, a cada 18 meses. Tal afirmação ficou conhecida como a Lei de Moore, a qual foi válida durante anos, principalmente no final da década de 90.

Sempre que uma empresa lançava um modelo de processador, o concorrente a superava meses depois. Isso ficou muito evidente nos anos de 1999 e 2000, quando o Pentium III e o AMD Atlhon (K7) estavam guerreando pelo maior clock. Por um período de tempo, a AMD liderou a disputa, pois o Atlhon, que trabalhava com frequências maiores do que 1 GHz, superou o Pentium III.

A reviravolta da Intel veio com o lançamento do Pentium 4, em 2001, que trabalhava com até  2 GHz e levou a empresa de volta ao topo do mercado. As versões de baixo custo dessas CPUs, Celeron (Intel) e Duron (AMD), também disputavam fortemente o lugar mais alto no ranking do processador “B” mais vendido.

Multicore: o fim da lei de Moore

Conforme a tecnologia dos processadores foi progredindo, o tamanho de seus transistores foi diminuindo de forma significativa. Contudo, após o lançamento do Pentium 4, eles já estavam tão pequenos (0,13 micrômetros) e numerosos (120 milhões) que se tornou muito difícil aumentar o clock por limitações físicas, principalmente pelo superaquecimento gerado.

A principal solução para esse problema veio com o uso de mais de um núcleo ao mesmo tempo, através da tecnologia multicore. Assim, cada núcleo não precisa trabalhar numa frequência tão alta. Se o esquema de escalonamento de tarefas funcionasse de maneira eficiente, seria possível trabalhar com quase o dobro do clock. Um processador dual-core de 1,5 GHz, por exemplo, poderia ter um desempenho semelhante a uma CPU de núcleo único de 3 GHz.

Um componente chamado de escalonador determina em qual dos núcleos uma tarefa deve ser executada. Mas como o escalonador demora certo tempo para fazer essa decisão, na prática fica quase impossível atingir o dobro exato de desempenho. Portanto, com o advento do processador multicore, a lei de Moore tornou-se inválida, visto que já não era mais possível aumentar a frequência do processador como antes.

Anos 2000: a era de 64 bits

No começo dessa década, ficou claro que o uso de 32 bits não seria mais eficiente, visto que, no máximo, apenas 4 GB de memória RAM poderiam ser endereçados nessa plataforma. Logo, a solução mais natural foi o desenvolvimento de novas arquiteturas que passassem a trabalhar com 64 bits ao invés de 32.

A história dos processadores

O AMD Opteron, de abril de 2003, foi a primeira CPU de 64 bits da empresa (Fonte da imagem: AMD)

Tanto a AMD quanto a Intel trabalhavam em seus próprios projetos de CPUs de 64 bits, mas quem venceu a disputa foi mesmo a AMD, com o x86-64, que mais tarde foi renomeado para AMD64. Isso aconteceu, principalmente, pelo fato de a AMD ter evoluído diretamente o x86-32, enquanto que a Intel tentou criar algo novo, do zero.

Visto esse acontecimento, as empresas em questão criaram um acordo no uso dessas arquiteturas, no qual a AMD licenciou para a Intel o uso do x86-64. Por outro lado, a Intel também tornou legal o uso da arquitetura x86-32 pela AMD. Logo, todos os modelos de processadores 64 bits comerciais atuais rodam sobre o x86-64. O AMD Athlon 64 foi um dos maiores representantes dessa arquitetura.

Blackfin

Ainda em 2000, uma nova arquitetura de processadores foi lançada pela empresa Analog Devices. A Blackfin, como foi batizada, é uma família de microprocessadores de 16 e 32 bits que possuía, como diferencial, um processador de sinal digital (DSP) embutido, usado para processar áudio e vídeo.

Aliado a outras características de design, esse processador permite um consumo menor de energia aliado ao alto desempenho. O uCLinux é um dos sistemas operacionais que suporta esse tipo de CPU.

Pentium 4 e Pentium D

Em 2002, a Intel lançou o Pentium 4, processador que podia alcançar clocks muito altos, chegando até a 3,8 GHz em condições especiais. Os últimos modelos dessa linha também incluíam a tecnologia Hyperthreading (HT), funcionalidade que fazia um processador físico trabalhar como se fossem duas CPUs lógicas.

A história dos processadores

Intel Pentium 4 Willamette para Socket 423 (Fonte da imagem: Wikimedia Commons)

Posteriormente, o Pentium 4 foi substituído pelo Pentium D, duas linhas de processadores dual-core de 64 bits. Mais tarde, foi lançado o Pentium Extreme Edition, que possuía desempenho um pouco melhor do que o Pentium D, além de tecnologias extras que o tornavam mais apto para tarefas pesadas. Esse modelo também fazia uso da tecnologia HT, podendo simular a existência de até quatro núcleos.

Outra novidade da Intel foi o Pentium M, uma versão de baixo consumo do Pentium Pro desenvolvido para dispositivos móveis. Esse processador foi lançado em 2003. Em 2005, a AMD apresentou ao mundo o seu primeiro processador dual-core, o Athlon 64 X2.

Intel Core

Em 2006, a Intel inicia a sua linha Core, para consumidores que precisam de mais poder de processamento. Faz parte dessa linha o modelo Core 2 Duo, que demonstra uma capacidade incrível se comparado com os dual-core anteriores da empresa. Na mesma época, foi lançada a versão Pentium Dual Core, que apesar de trazer uma boa relação custo-benefício, se mostra inferior ao Core 2 Duo.

Outro grande lançamento feito pela Intel foi o Core 2 Quad, processadores com quatro núcleos e que, apesar de demonstrarem alto desempenho, acabam perdendo em algumas tarefas para o Core 2 Duo. Uma versão posterior, nomeada Core 2 Extreme Quad Core, também foi lançada, proporcionando mais velocidade de clock, que pode chegar até 3,2 GHz.

Em 2010, a Intel anunciou os modelos Core i3, i5 e i7. Quem ainda não conhece pode conferir o artigo publicado pelo Tecmundo sobre as diferenças entre esses três modelos.

A história dos processadores

Base do processador Intel core i7-940 (Fonte da imagem: Wikimedia Commons)

Além disso,a empresa também lançou uma segunda geração desses processadores, que vem sendo muito bem aceita pelos consumidores. Essa nova leva possui mudanças na memória cache, melhorias no modo Turbo Boost e aperfeiçoamentos na própria arquitetura. Porém, o que chama a atenção é a presença de um chip gráfico acoplado com o processador principal (APU). Confira as diferenças entre as duas gerações no artigo de Fábio Jordão.

A empresa também vem trabalhando em uma nova microarquitetura de processadores, a Ivy Bridge, que deve possuir suporte para PCI Express 3.0, DirectX 11 e OpenCL 1.1. A empresa espera obter um aumento de até 30% de desempenho no processamento gráfico se comparado com o chipset Sandy Bridge, presente nos processadores i5 e i7.

As últimas novidades da AMD

Quando o assunto é AMD, a história possui algumas diferenças. Depois dos processadores dual-core, a linha Athlon II apresentou processadores de três (X3) e quatro núcleos (x4), todos com versões econômicas, ou seja, com menor desempenho e mais baratos.

Um dos últimos grandes lançamentos da AMD foi o Athlon Neo, chip desenvolvido para notebooks ultrafinos e que precisam de uma duração maior da bateria. Outra linha apresentada pela fabricante foi a dos processadores Sempron, uma versão simplificada do Athlon, com apenas um núcleo e voltada para consumidores menos exigentes.

A história dos processadores

AMD Phenon II possui modelos de 3 e 3,1 GHZ (Fonte da imagem: AMD)

Quem não dispensa um bom jogo ou precisa de processamento de alto desempenho pode contar com os processadores Phenom, que foram lançados para competirem de igual para igual com as CPUs da Intel. Esses modelos também receberam versão de três (X3) e quatro (X4) núcleos. A segunda geração dessa linha, Phenom II, conta também com processadores dual-core de 3 e 3,1 GHz.

A surpresa mesmo fica por conta dos processadores Phenom II X4, de quatro núcleos e alto desempenho, com modelos de até 3,4 GHz. Além desses, servidores ou estações de trabalho que exigem uma carga maior de processamento também podem se beneficiar dos processadores Opteron, que podem operar com até seis núcleos.

A AMD também lançou uma linha de CPUs para notebooks que, apesar de ser dual-core, possui um consumo eficiente de energia, poupando assim a carga da bateria dos portáteis. Mas o que vem ganhando espaço é mesmo a Fusion, linha de APUs (Unidade de Processamento Acelerada) da AMD. Com a junção de CPU e GPU em um único chip, é possível obter melhor desempenho a um custo reduzido. Leia mais sobre o Fusion aqui mesmo, no Tecmundo.

Com tantos modelos de processadores disponíveis, pode ter ficado confuso saber quais modelos ainda são vendidos e o que comprar na hora de fazer um upgrade. Mas não se preocupe: aqui você encontra artigos que podem ajudá-lo a decidir qual é o processador ideal para você, seja Intel ou AMD.
Leia mais em: http://www.tecmundo.com.br/historia/2157-a-historia-dos-processadores.htm#ixzz2t1vabjir

O que são Multi e Hyper-Threading?

Os processadores foram os componentes de computador que tiveram uma evolução galopante desde seu primeiro modelo até os que encontramos hoje no mercado. Para aumentar a velocidade dos processadores e a dos computadores, diversas tecnologias novas foram desenvolvidas.

Hoje você não precisa procurar muito para encontrar computadores que tenham processadores com mais de um núcleo, ou que possam simular diversos. Porém, as especificações destas máquinas muitas vezes utilizam nomes específicos como Multithread ou Hyper-threading e geram dúvidas sobre seu funcionamento.

O que é Thread?

Em palavras simples, uma thread é um conjunto de tarefas existentes em um ou mais programas, executadas ao mesmo tempo pelo processador. Por exemplo, você não precisa parar de ouvir música enquanto utiliza um editor de texto, muito menos fechar uma janela de seu navegador para imprimir uma imagem. Agora pense em diversas tarefas dentro de um único processo (como a emissão de sons e imagens ao mesmo tempo em um jogo) e você tem threads.

Os processos são compostos por threads

Uma Thread acontece quando um programa precisa resolver duas ou mais tarefas concorrentes (e em andamento). Threads não são processos, estando contidas dentro de processos.  Pode haver múltiplas threads dentro de um mesmo processo (ao menos uma sempre existe) e também é possível dividir recursos do computador (como memória e arquivos abertos, por exemplo), enquanto processos não podem fazê-lo.

Nos computadores cujo processador possui um núcleo, as threads são processadas de maneira, aparentemente, simultânea, pois a mudança entre uma e outra é feita de maneira muito rápida. Nos computadores cujo processador tem mais do que um núcleo, as threads são efetivamente realizadas de forma simultânea.

Os processos possuem linhas (threads) em seus códigos

Resumindo…

Normalmente, um processo (de qualquer programa) é dividido em várias linhas, as quais possuem ordens específicas. Cada linha pode ser lida e processada separadamente pelo processador. Estas linhas são o que chamamos de Threads. Evidentemente, para que as Threads possam ser executadas ao mesmo tempo, o computador precisa de duas coisas: um sistema capaz de realizar esta divisão de threads e um processador capaz de executar várias threads.

Multithread

Multithreading é a capacidade que o sistema  operacional possui de executar várias threads simultaneamente sem que uma interfira na outra. Estas threads compartilham os recursos do processo, mas são capazes de ser executadas de forma independente. Para possuir processamento multithread “real”, os processadores precisam ser capazes de atender duas ou mais threads ao mesmo tempo e não simular este efeito, atendendo-as uma por vez em um curto período de tempo.

A maior vantagem trazida com a execução multithread é permitir que os computadores com múltiplos núcleos de processamento possam aproveitar todo o seu potencial e operar de forma mais rápida. Apenas para ilustrar, nos computadores sem este tipo de suporte, quando o processo principal toma muito tempo, a aplicação inteira parece travar.

SuperThreading

Esta tecnologia foi desenvolvida a partir da observação de que algumas vezes o processador era deixado ocioso enquanto executava as instruções de uma thread (nem todo processo requisita toda a capacidade do processador). O objetivo principal era aproveitar este período de ociosidade para a execução de instruções de outra thread.

Na execução SuperThreading o processador pode executar instruções de threads diferentes para cada ciclo de processamento. Entretanto, quando um destes ciclos não está mais sendo utilizado por determinada thread, é aproveitado para executar outra que esteja pronta.

Hyper-threading

Hyper-threading ou Simultaneous multithreading (SMT), basicamente, seria uma espécie de evolução da tecnologia SuperThreading, porém sem a limitação de  que todas as instruções executadas em um mesmo ciclo de processamento sejam da mesma thread.

Processador com tecnologia Hyper-threading

A tencologia de  Hyper-thread permite que as threads sejam executadas em paralelo (paralelismo) dentro de cada núcleo de processador existente no computador. Este tipo de processamento aproveita de forma mais eficiente o uso dos recursos dos processadores e melhora ainda mais a performance multithread dos programas. Na imagem abaixo você pode conferir a presença da tecnologia Hyper-threading (HT) nos processadores Pentium 4.

O que são multi e hyper-threading?

Veja que o Windows reconhece dois núcleos num processador que tem apenas um núcleo físico

Para deixar um pouco mais claro, pode-se dizer que um único processador com tecnologia hyper-threading habilitada é tratado pelo sistema operacional como dois processadores ao invés de apenas um. Assim sendo, um único processador físico poderia ser tratado pelo Sistema como dois processadores virtuais dividindo tarefas entre eles.

Como um exemplo atual, poderíamos utilizar os processadores Core i7 da Intel, que apesar de possuírem quatro núcleos físicos, simulam o funcionamento de oito.

Referencia: http://www.tecmundo.com.br/aumentar-desempenho/2841-o-que-sao-multi-e-hyper-threading-.htm

Processadores: Clock, Bits, Memória Cache e Múltiplos Núcleos

Introdução

Os processadores (ou CPU, de Central Processing Unit – Unidade Central de Processamento) são chips responsáveis pela execução de cálculos, decisões lógicas e instruções que resultam em todas as tarefas que um computador pode fazer. Por este motivo, são também referenciados como “cérebros” destas máquinas.

Apesar de não haver um número muito grande de fabricantes – a maior parte do mercado está concentrada nas mãos da Intel e da AMD, com companhias como Samsung e Qualcomm se destacando no segmento móvel -, existe uma grande variedade de processadores, para os mais variados fins.

Apesar disso e das diferenças existentes entre cada modelo, a maioria dos chips compartilha determinadas características. Com base nisso, o InfoWester apresenta este texto de introdução aos processadores, onde você conhecerá o significado de conceitos como clock, bits internos, memória cache, uso de dois ou mais núcleos, entre outros.

Links diretos:

O que é processador?

O processador (CPU) é um chip normalmente feito de silício que responde pela execução das tarefas cabíveis a um computador. Para compreender como um processador trabalha, é conveniente dividirmos um computador em três partes: processador, memória e um conjunto de dispositivos de entrada e saída (ou I/O, de Input/Output). Neste último, encontra-se qualquer item responsável pela entrada ou saída de dados no computador, como telas, teclados, mouses, impressoras, scanners, discos rígidos, etc. Neste esquema, o processador exerce a função principal, já que cabe a ele o acesso e a utilização da memória e dos dispositivos de entrada e saída para a execução das atividades.

Para entender melhor, suponha que você queira que o seu computador execute um programa (software) qualquer. Em poucas palavras, um programa consiste em uma série de instruções que o processador deve executar para que a tarefa solicitada seja realizada. Para isso, a CPU transfere todos os dados necessários à execução de um dispositivo de entrada e/ou saída – como um disco rígido – para a memória. A partir daí, todo o trabalho é realizado e o que será feito do resultado depende da finalidade programa – o processador pode ser orientado a enviar as informações obtidas para o HD novamente ou para uma impressora, por exemplo.

Barramentos

A imagem a seguir ilustra um esquema hipotético (e bastante abstrato) de comunicação entre o processador, a memória e o conjunto de dispositivos de entrada e saída, representando o funcionamento básico do computador. Note que a conexão entre estes itens é indicada por setas. Isso é feito para que você possa entender a função dos barramentos (bus).


Barramentos em um processador

De maneira geral, os barramentos são responsáveis pela interligação e comunicação dos dispositivos em um computador. Note que, para o processador se comunicar com a memória e o conjunto de dispositivos de entrada e saída, há três setas, isto é, barramentos: um se chamabarramento de endereços (address bus); outro, barramento de dados (data bus); o terceiro,barramento de controle (control bus).

O barramento de endereços, basicamente, indica de onde os dados a serem processados devem ser retirados ou para onde devem ser enviados. A comunicação por este meio é unidirecional, razão pela qual só há seta em uma das extremidades da linha no gráfico que representa a sua comunicação.

Como o nome deixa claro, é pelo barramento de dados que as informações transitam. Por sua vez, o barramento de controle faz a sincronização das referidas atividades, habilitando ou desabilitando o fluxo de dados, por exemplo.

Para você compreender melhor, imagine que o processador necessita de um dado presente na memória. Pelo barramento de endereços, a CPU obtém a localização deste dado dentro da memória. Como precisa apenas acessar o dado, o processador indica pelo barramento de controle que esta é uma operação de leitura. O dado é então localizado e inserido no barramento de dados, por onde o processador, finalmente, o lê.

Clock interno

Em um computador, todas as atividades necessitam de sincronização. O clock interno (ou apenasclock) serve justamente a este fim, ou seja, basicamente, atua como um sinal para sincronismo. Quando os dispositivos do computador recebem o sinal de executar suas atividades, dá-se a esse acontecimento o nome de “pulso de clock”. Em cada pulso, os dispositivos executam suas tarefas, param e vão para o próximo ciclo de clock.

A medição do clock é feita em hertz (Hz), a unidade padrão de medidas de frequência, que indica o número de oscilações ou ciclos que ocorre dentro de uma determinada medida de tempo, no caso, segundos. Assim, se um processador trabalha à 800 Hz, por exemplo, significa que ele é capaz de lidar com 800 operações de ciclos de clock por segundo.

Repare que, para fins práticos, a palavra kilohertz (KHz) é utilizada para indicar 1000 Hz, assim como o termo megahertz (MHz) é usado para referenciar 1000 KHz (ou 1 milhão de hertz). De igual forma, gigahertz (GHz) é a denominação usada quando se tem 1000 MHz e assim por diante. Com isso, se um processador conta com, por exemplo, uma frequência de 800 MHz, significa que pode trabalhar com 800 milhões de ciclos por segundo.

Neste ponto, você provavelmente deve ter entendido que é daqui que vem expressões como “processador Intel Core i5 de 2,8 GHz”, por exemplo.

FSB (Front Side Bus)

Você já sabe: as frequências com as quais os processadores trabalham são conhecidas como clock interno. Mas, os processadores também contam com o que chamamos de clock externo ou Front Side Bus (FSB) ou, ainda, barramento frontal.

O FSB existe porque, devido a limitações físicas, os processadores não podem se comunicar com o chipset e com a memória RAM – mais precisamente, com o controlador da memória, que pode estar na ponte norte (northbridge) do chipset – utilizando a mesma velocidade do clock interno. Assim, quando esta comunicação é feita, o clock externo, de frequência mais baixa, é que entra em ação.

Note que, para obter o clock interno, o processador faz uso de um procedimento de multiplicação do clock externo. Para entender melhor, suponha que um determinado processador tenha clock externo de 100 MHz. Como o seu fabricante indica que este chip trabalha à 1,6 GHz (ou seja, tem clock interno de 1,6 GHz), seu clock externo é multiplicado por 16: 100 x 16 = 1600 MHz ou 1,6 GHz.


Front Side Bus

É importante deixar claro, no entanto, que se dois processadores diferentes – um da Intel e outro da AMD, por exemplo – tiverem clock interno de mesmo valor – 3,2 GHz, para exemplificar -, não significa que ambos trabalham com a mesma velocidade. Cada processador tem um projeto distinto e conta com características que determinam o quão rápido podem ser. Assim, um determinado processador pode levar, por exemplo, 2 ciclos de clock para executar uma instrução. Em outro processador, esta mesma instrução pode requerer 3 ciclos.

Vale ressaltar também que muitos processadores – especialmente os mais recentes – transferem 2 ou mais dados por ciclo de clock, dando a entender que um chip que realiza, por exemplo, transferência de 2 dados por ciclo e que trabalha com clock externo de 133 MHz, o faz à 266 MHz. Por este e outros motivos, é um erro considerar apenas o clock interno como parâmetro de comparação entre processadores diferentes.

QuickPath Interconnect (QPI) e HyperTransport

Dependendo do processador, outra tecnologia pode ser utilizada no lugar do FSB. Um exemplo é oQuickPath Interconnect (QPI), utilizado nos chips mais recentes da Intel, e o HyperTransport, aplicado nas CPUs da AMD.

Estas mudanças de tecnologias são necessárias porque, com o passar do tempo, a busca por melhor desempenho faz com que os processadores sofram alterações consideráveis em sua arquitetura.

Uma dessas mudanças diz respeito ao já mencionado controlador de memória, circuito responsável por “intermediar” o uso da memória RAM pelo processador. Nas CPUs mais atuais da Intel e da AMD, o controlador está integrado ao próprio chip e não mais ao chipset localizado na placa-mãe.

Com esta integração, os processadores passam a ter um barramento direto à memória. O QPI e o HyperTransport acabam então ficando livres para fazer a comunicação com os recursos que ainda são intermediados pelo chipset, como dispositivos de entrada e saída.

O interessante é que tanto o QuickPath quanto o HyperTransport trabalham com duas vias de comunicação, de forma que o processador possa transmitir e receber dados ao mesmo tempo, já que cada atividade é direcionada a uma via, beneficiando o aspecto do desempenho. No FSB isso não acontece, porque há apenas uma única via para a comunicação.


QPI / HyperTransport

Estas tecnologias sofrem atualizações quando novas famílias de processadores são lançadas, fazendo que com a sua frequência (clock) e a largura de banda (quantidade de bits que podem ser transmitidas por vez), por exemplo, tenham limites maiores em cada nova versão.

Bits dos processadores

O número de bits é outra importante característica dos processadores e, naturalmente, tem grande influência no desempenho deste dispositivo. Processadores mais antigos, como o 286, trabalhavam com 16 bits. Durante muito tempo, no entanto, processadores que trabalham com 32 bits foram muitos comuns, como as linhas Pentium, Pentium II, Pentium III e Pentium 4 da Intel ou Athlon XP e Duron da AMD. Alguns modelos de 32 bits ainda são encontrados no mercado, todavia, o padrão atual são os processadores de 64 bits, como os da linha Core i7, da Intel, ou Phenom, da AMD.

Em resumo, quanto mais bits internos o processador possuir, mais rapidamente ele poderá fazer cálculos e processar dados em geral, dependendo da execução a ser feita. Isso acontece porque os bits dos processadores representam a quantidade de dados que os circuitos desses dispositivos conseguem trabalhar por vez.

Um processador com 16 bits, por exemplo, pode manipular um número de valor até 65.535. Se este processador tiver que realizar uma operação com um número de valor 100.000, terá que fazer a operação em duas partes. No entanto, se um chip trabalha a 32 bits, ele pode manipular números de valor até 4.294.967.295 em uma única operação. Como este valor é superior a 100.000, a operação pode ser realizada em uma única vez.

Você pode saber mais sobre processadores de 64 bits neste texto.

Memória cache

Os processadores passam por aperfeiçoamentos constantes, o que os tornam cada vez mais rápidos e eficientes, como você já sabe. No entanto, o mesmo não se pode dizer das tecnologias de memória RAM. Embora estas também passem por constantes melhorias, não conseguem acompanhar os processadores em termos de velocidade. Assim sendo, de nada adianta ter um processador rápido se este tem o seu desempenho comprometido por causa da “lentidão” da memória.

Uma solução para este problema seria equipar os computadores com um tipo de memória mais sofisticado, como a SRAM (Static RAM). Esta se diferencia das memórias convencionais DRAM (Dynamic RAM) por serem muito rápidas. Por outro lado, são muito mais caras e não contam com o mesmo nível de miniaturização, sendo, portanto, inviáveis. Apesar disso, a ideia não foi totalmente descartada, pois foi adaptada para o que conhecemos como memória cache.

A memória cache consiste em uma pequena quantidade de memória SRAM embutida no processador. Quando este precisa ler dados na memória RAM, um circuito especial chamado “controlador de cache” transfere blocos de dados muito utilizados da RAM para a memória cache. Assim, no próximo acesso do processador, este consultará a memória cache, que é bem mais rápida, permitindo o processamento de dados de maneira mais eficiente.

Se o dado estiver na memória cache, o processador a utiliza, do contrário, irá buscá-lo na memória RAM. Perceba que, com isso, a memória cache atua como um intermediário, isto é, faz com que o processador nem sempre necessite chegar à memória RAM para acessar os dados dos quais necessita. O trabalho da memória cache é tão importante que, sem ela, o desempenho de um processador pode ser seriamente comprometido.

Os processadores trabalham, basicamente, com dois tipos de cache: cache L1 (Level 1 – Nível 1) ecache L2 (Level 2 – Nível 2). Este último é, geralmente mais simples, costuma ser ligeiramente maior em termos de capacidade, mas também um pouco mais lento. O cache L2 passou a ser utilizado quando o cache L1 se mostrou insuficiente.

Antigamente, um tipo se distinguia do outro pelo fato de a memória cache L1 estar localizada junto ao núcleo do processador, enquanto que a cache L2 ficava localizada na placa-mãe. Atualmente, ambos os tipos ficam localizados dentro do chip do processador, sendo que, em muitos casos, a cache L1 é dividida em duas partes: “L1 para dados” e “L1 para instruções”.

Vale ressaltar que, dependendo da arquitetura do processador, é possível encontrar modelos que contam com um terceiro nível de cache (L3). O processador Intel Core i7 3770, por exemplo, possui caches L1 e L2 relativamente pequenos para cada núcleo (o aspecto dos múltiplos núcleos é explicado no próximo tópico): 64 KB e 256 KB, respectivamente. No entanto, o cache L3 é expressivamente maior – 8 MB – e, ao mesmo tempo, compartilhado por todos os seus quatros núcleos.


Processador Core i7 3770 – Imagem por Intel

Mas o cache L3 não é, necessariamente, novidade: a AMD chegou a ter um processador em 1999 chamado K6-III que contava com cache L1 e L2 internamente, característica incomum à época, já que naquele tempo o cache L2 se localizava na placa-mãe, como já explicado. Com isso, esta última acabou assumindo o papel de cache L3.

Processadores com dois ou mais núcleos

Talvez você não saiba, mas é possível encontrar no mercado placas-mãe que contam com dois ou mais slots (encaixes) para processadores. A maioria esmagadora destas placas são usadas em computadores especiais, como servidores e workstations, equipamentos direcionados a aplicações que exigem muito processamento. Para atividades domésticas e de escritório, no entanto, computadores com dois ou mais processadores são inviáveis devido aos elevados custos que arquiteturas do tipo possuem, razão pela qual é conveniente a estes segmentos o uso de processadores cada vez mais rápidos.

Até um passado não muito distante, o usuário tinha noção do quão rápido eram os processadores de acordo com a taxa de seu clock interno. O problema é que, quando um determinado valor de clock é alcançado, torna-se mais difícil desenvolver outro chip com clock maior. Limitações físicas e tecnológicas são os principais motivos para isso. Uma delas é a questão da temperatura: teoricamente, quanto mais megahertz um processador tiver, mais calor o dispositivo gerará.

Uma das formas encontradas pelos fabricantes para lidar com esta limitação consiste em fabricar e disponibilizar processadores com dois núcleos (dual core), quatro núcleos (quad core) ou mais (multi core). Mas, o que isso significa?

CPUs deste tipo contam com dois ou mais núcleos distintos no mesmo circuito integrado, como se houvesse dois (ou mais) processadores dentro de um chip. Assim, o dispositivo pode lidar com dois processos por vez (ou mais), um para cada núcleo, melhorando o desempenho do computador como um todo.

Note que, em um chip de único núcleo (single core), o usuário pode ter a impressão de que vários processos são executados simultaneamente, já que a máquina está quase sempre executando mais de uma aplicação ao mesmo tempo. Na verdade, o que acontece é que o processador dedica determinados intervalos de tempo a cada processo e isso acontece de maneira tão rápida, que se tem a impressão de processamento simultâneo.

Processadores multi core oferecem várias vantagens: podem realizar duas ou mais tarefas ao mesmo; um núcleo pode trabalhar com uma velocidade menor que o outro, reduzindo a emissão de calor; ambos podem compartilhar memória cache; entre outros.

A ideia deu tão certo que, hoje, é possível encontrar processadores com dois ou mais núcleos inclusive em dispositivos móveis, como tablets e smartphones. Na verdade, a situação se inverteu em relação aos anos anteriores: hoje, é mais comum encontrar no mercado chips multi core do que processadores single core.

É interessante reparar que os núcleos de um processador não precisam ser utilizados todos ao mesmo tempo. Além disso, apesar de serem tecnicamente iguais, é possível fazer com que determinados núcleos funcionem de maneira alterada em relação aos outros.

Um exemplo disso é a tecnologia Turbo Boost, da Intel: se um processador quad core, por exemplo, tiver dois núcleos ociosos, os demais podem entrar automaticamente em um modo “turbo” para que suas frequências sejam aumentadas, acelerando a execução do processo em que trabalham.

A imagem abaixo exibe uma montagem que ilustra o interior de um processador Intel Core 2 Extreme Quad Core (núcleos destacado na cor amarela):


Processador Core 2 Extreme Quad Core – Imagem original por Intel

TDP (Termal Design Power)

Se você já olhou um desktop ou um notebook aberto, por exemplo, pode ter reparado que, sobre o processador, há um dispositivo de metal chamado “dissipador” que muitas vezes é acompanhado de uma espécie ventilador (cooler).

Estes dispositivos são utilizados para amenizar o intenso calor gerado pela potência, isto é, pelo trabalho do processador – se este aspecto não for controlado, o computador pode apresentar instabilidade e até mesmo sofrer danos.

Acontece que cada modelo de processador possui níveis diferentes de potência, principalmente porque esta característica está diretamente ligada ao consumo de energia: pelo menos teoricamente, quanto mais eletricidade for utilizada, maior será o calor resultante.

É aí que o TDP (Thermal Design Power – algo como Energia Térmica de Projeto) entra em cena: trata-se de uma medida em Watts (W) criada para indicar estimativas de níveis máximos de energia que um processador pode requerer e, portanto, dissipar em forma de calor. Assim, o usuário consegue saber quanto determinada CPU exige em relação à potência e fabricantes podem produzir coolers, dissipadores e outros equipamentos de refrigeração adequados a este chip.

Obviamente, quanto menor o TDP de um processador, melhor.

ACP (Average CPU Power)

Criada pela AMD, o ACP (Average CPU Power – algo como Potência Média da CPU) é uma medida bastante semelhante ao TDP, mas é calculada de maneira ligeiramente diferente, de forma a indicar níveis de potência mais próximos do consumo real, em vez de estimativas máximas.

Os valores de ACP também são indicados em Watts. Assim como no TDP, quanto menor o ACP, melhor.

APU (Accelerated Processing Units)

Entre as inovações mais recentes no segmento de processadores está a APU (Accelerated Processing Unit – Unidade de Processamento Acelerado), nome criado para identificar chips que unem as funções de CPU e GPU. Sim, é como se houvesse dois produtos em um só: processador e chip gráfico da placa de vídeo.

Há várias vantagens no uso de uma APU: menor consumo de energia, maior facilidade para incluir CPU e GPU em dispositivos portáteis, possibilidade de uso da APU em conjunto com uma placa de vídeo para aumentar o poder gráfico do computador, entre outros.

Como a APU não tem memória dedicada, tal como as placas de vídeo, é necessário fazer uso da memória RAM do computador. A princípio, esta característica compromete o desempenho, mas o fato de o controlador de memória também estar integrado à CPU, tal como já mencionado, tende a compensar esta peculiaridade. Assim, é possível inclusive o uso de uma GPU mais avançada na APU, apesar de os primeiro modelos serem bastante “básicos” em relação a este aspecto.

É válido frisar que o nome APU é amplamente utilizado pela AMD, mas a Intel, apesar de evitar esta denominação, também possui chips do tipo, como mostra a seguinte imagem:


Visão interna (die) de um processador da família Ivy Bridge. Observe a posição da GPU e dos demais elementos do chip – Imagem por Intel

Processadores: fabricação, miniaturalização e encapsulamento

Introdução

No artigo Processadores – Parte 1, os conceitos mais básicos de um processador foram abordados, comoclockFront Side Bus (FSB) e memória cache. Nesta segunda parte, você conhecerá outros conceitos relacionados aos processadores, comominiaturalização e encapsulamento. No entanto, o mais importante é que você também encontrará resposta para uma pergunta muito comum: como os processadores são fabricados?

É claro que esse é um assunto de extrema complexidade. Por esse motivo, somente os conceitos mais básicos serão explicados aqui. Todavia, essa explanação será suficiente para que você possa ter uma noção de como os processadores são fabricados. Antes de começar, uma sugestão: leia a primeira parte deste artigo para não se “perder” diante de algum termo técnico mencionado aqui 😉

Vamos lá?

Silício

O primeiro passo na fabricação de processadores consiste, obviamente, na obtenção de matéria-prima. Geralmente, os chips são formados por silício, e com os processadores não é diferente. O silício é um elemento químico extremamente abundante, tanto que é considerado o segundo mais comum na Terra. É possível extraí-lo de areia, granito, argila, entre outros.

Esse elemento químico é utilizado para a constituição de vários materiais resistentes, como vidro e cerâmica. No entanto, é também semicondutor, isto é, tem a capacidade de conduzir eletricidade. Essa característica somada à sua existência em abundância faz com que o silício seja um elemento extremamente utilizado pela indústria eletrônica.

Para você ter uma ideia da importância desse material, a concentração de empresas que utilizam silício em seus produtos eletrônicos em várias cidades da Califórnia, nos EUA, fez com que a região recebesse o nome de Vale do Silício (Silicon Valley). É lá que estão localizadas, por exemplo, as sedes da AMD e da Intel, as maiores fabricantes de microprocessadores do mundo.

Fabricação de processadores

A fabricação dos processadores se inicia em modernos centros tecnológicos especializados. Esses locais são tão sofisticados e de construção de valor tão elevado, que existem poucos no mundo. Nos laboratórios desses centros, uma determinada quantidade de cristal de silício é colocada em uma espécie de haste e, posteriormente, inserida em silício fundido submetido a uma pressão e a uma temperatura extremamente alta – em torno dos 300º. A haste é então retirada e girada ao mesmo tempo. Esse processo (chamado de técnica Czochralski) faz com que o material que se juntou à haste forme uma espécie de cilindro (também conhecido como “ingot“). Seu diâmetro varia de acordo com o avanço da tecnologia, mas em geral possui entre 200 e 300 milímetros. O mesmo vale para o seu comprimento: de 1 a 2 metros. É importante frisar que esses cilindros precisam ser formados de silício puro. O processo de purificação desse material é complexo, o que encarece ainda mais a fabricação.


Cilindro formado por silício (ingot). Imagem por Wikipedia

Uma vez concluída essa etapa, o cilindro é “fatiado”, isto é, cortado em várias partes. Cada uma dessas divisões recebe o nome de wafer. Cada “fatia” é polida até ficar perfeita, sem variações, manchas, diferenças de brilho ou qualquer irregularidade em sua composição. Sua espessura, geralmente é menor que 1 milímetro. Em uma etapa mais adiante, cada wafer será dividido em vários “quadradinhos” (ou “pastilhas”), que posteriormente serão separados e formarão os processadores em si.

No passo seguinte, a superfície do wafer passa por um processo de oxidação, onde a aplicação de gases – especialmente oxigênio – e temperatura elevada forma uma camada de dióxido de silício. Essa camada servirá de base para a construção de milhares e milhares de transistores, em poucas palavras, minúsculos componentes capazes de “amplificar” ou “chavear” sinais elétricos, além de outras funções relacionadas.

Na próxima etapa, os wafers passam por um processo onde recebem uma camada de material fotossensível, isto é, que reage à luz. Nessa etapa, cada um dos blocos que se transformará em processador recebe luz ultravioleta em certos pontos e em determinadas intensidades. Os pontos da camada fotossensível que reagem à luz ultravioleta se tornam mais “gelatinosos” e são posteriormente removidos, deixando expostos os respectivos pontos da camada de dióxido de silício. Com isso, tem-se pontos cobertos com camada fotossensível e pontos cobertos com dióxido de silício. Obviamente, a camada fotossensível restante tem dióxido de silício por baixo. As partes deste último que não estiverem protegidas pela camada fotossensível são então removidas através de outro procedimento. No próximo passo, a camada fotossensível é removida. O que sobra então é utilizado como estrutura para a montagem dos transistores, procedimento esse que continua sendo feito a partir de aplicação de mais materiais e exposição à luz ultravioleta.


Engenheiro segurando um wafer – Imagem por Intel

Quem tem alguma experiência com fotos baseadas em filmes, provavelmente perceberá que as etapas descritas acima lembram bastante os procedimentos de revelação de fotografias. De fato, os princípios são essencialmente os mesmos.

É importante frisar que um único processador pode conter milhões de transistores. Só como exemplo, os primeiros processadores da linha Intel Core 2 Duo possuem cerca de 291 milhões de transistores em um único chip. Assim como acontece com qualquer processador, esses transistores são divididos e organizados em agrupamentos, onde cada grupo é responsável por uma função.

Uma vez terminada a montagem dos transistores, os wafers são “recortados” em um formato que lembra pequenos quadrados ou pastilhas. Cada unidade se transformará em um processador. Como os wafers são redondos, o que sobra da borda, obviamente, não pode virar um processador, então esse material é descartado, assim como qualquer unidade que apresentar defeito ou anormalidade.

Você pode ter se perguntado se não seria ideal fabricar wafers quadrados ou retangulares para evitar desperdício na borda. Teoricamente, seria, mas os wafers são formados por cilindros devido à técnica de fabricação explicada no início deste tópico, onde uma haste é inserida em silício e, em seguida, retirada e girada. Esse procedimento faz com que um cilindro seja constituídonaturalmente.


Wafer de silício – repare que as bordas são desperdiçadas – Imagem por Intel

É importante frisar que cada wafer dá origem a centenas de processadores, portanto, todo o processo de fabricação é realizado com base em uma série de cuidados. Para começar, os laboratórios das fábricas são locais extremamente limpos e protegidos (conhecidos como “clean room“), tanto é que as poucas pessoas que acompanham a produção utilizam roupas que lembram astronautas (como mostra a segunda foto deste tópico). Além disso, as máquinas responsáveis pela produção precisam estar perfeitamente ajustadas para seguir as instruções dos projetos dos chips que estão sendo fabricados.


Wafer, pastilha (die), processador – Montagem baseada em imagens da Intel

Diferença de clock

Quando os processadores chegam ao mercado, eles são classificados em linhas, por exemplo, Intel Core 2 Duo, AMD Phenom II e assim por diante. Cada uma dessas linhas é constituída por processadores de diversas velocidades de processamento. Como exemplo, a linha Intel Core 2 Duo possui os modelos E8400, E8500 e E8600. O que os diferencia é que o clock do primeiro é de 3 GHz, o clock do segundo é de 3,16 GHz e, por fim, o clock do terceiro é de 3,33 GHz.

Todos esses processadores são oriundos do mesmo projeto, portanto, têm a mesma arquitetura. O que torna um modelo mais rápido que o outro é que a fabricação do mais veloz foi mais perfeita que a dos modelos imediatamente inferiores. Pequenos detalhes durante todo o processo de fabricação fazem com que, dentro de um mesmo wafer, as “pastilhas” sejam ligeiramente diferentes uma das outras. Isso pode acontecer, por exemplo, em virtude de pequenos desvios nas camadas, em pequenas diferenças na passagem do feixe de luz, entre outros.

Por esse motivo, os wafers passam por testes que apontam com qual frequência cada chip pode utilizar. Apenas depois disso é que o wafer é cortado e os chips passam para a fase de encapsulamento. Esses testes também apontam quais chips deverão ser descartados por não terem condições de uso.

Miniaturalização

A indústria conseguiu elevar a capacidade dos processadores ao longo do tempo sem que, para tanto, tivesse que aumentar o tamanho físico desses dispositivos. Esse feito é possível graças ànanotecnologia, em poucas palavras, um ramo da ciência que envolve as pesquisas que lidam com itens medidos na casa dos nanômetros. Para quem não sabe, um nanômetro equivale a um milionésimo de milímetro, isto é, um milímetro dividido por um milhão, e sua sigla é nm. A medida mais usada, no entanto, é o micron, que equivale a um milésimo de milímetro, ou seja, um milímetro dividido por mil.

Graças às pesquisas de nanotecnologia, é possível deixar os transistores dos chips cada vez menores. O processador Intel 486, por exemplo, tem cerca de 1 milhão de transistores, sendo que cada um deles conta com praticamente 1 micron de tamanho. Muito pequeno, não? Na verdade, é um tamanho monstruoso, se comparado aos processadores atuais. Só para você ter uma ideia, neste artigo já foi dito que os primeiros processadores da linha Intel Core 2 Duo contam com cerca de 291 milhões de transistores. Esses chips utilizam tecnologia de fabricação de 0,065 micron (ou 65 nanômetros), sendo que os mais recentes dessa linha são fabricados com 0,045 micron (45 nanômetros).

As pesquisas sobre miniaturalização de chips indicam que será possível levar esse processo até a casa dos 25 nanômetros (ou um valor não muito menor que isso). Depois disso, a indústria chegará a um limite físico onde os transistores provavelmente serão formados por poucos átomos e não poderão mais ser diminuídos. É claro que pesquisas já estão em andamento para criar uma saída para esse problema. Uma delas é a “computação quântica” , que muito mais que contornar os limites físicos dos processadores da “computação clássica”, poderá revolucionar a computação como um todo.

Encapsulamento dos processadores

Nas etapas de encapsulamento, o processador é inserido em uma espécie de “carcaça” que o protege e contém contatos metálicos para a sua comunicação com os componentes do computador. Cada modelo de processador pode contar com tipos de encapsulamento diferentes, que variam conforme o seu projeto. Em geral, os processadores possuem em sua parte superior uma espécie de “tampa” metálica chamada “Integrated Heat Spreader” (IHS), que serve para protegê-lo e, muitas vezes, para facilitar a dissipação de calor. Esse componente normalmente cobre toda a parte superior do chip e, dentro dele, no centro, fica o processador em si (também chamado de “die“). No entanto, em alguns modelos, o IHS não é utilizado. Nesses casos, a ausência dessa proteção pode facilitar a dispersão de calor devido ao contato direto do die com o cooler(ventoinha) do processador e reduzir custos de fabricação.

É importante frisar que há várias tecnologias usadas no encapsulamento dos processadores. A aplicação de cada uma varia conforme o projeto do chip. Eis os tipos principais, tendo como base tecnologias da Intel:

– PGA: sigla de Pin Grid Array (algo como “matriz de pinos”), esse é um tipo de encapsulamento que faz com que o processador utilize pinos de contato que devem ser inseridos em um encaixe adequado na placa-mãe do computador (ver soquete, logo abaixo). Seu material básico pode ser cerâmica (Ceramic Pin Grid Array – CPGA) ou plástico (Plastic Pin Grid Array – PPGA). Há também um tipo chamado Flip Chip Pin Grid Array (FC-PGA) onde a pastilha fica parcialmente exposto na parte superior do chip;


Intel Pentium 4 – Encapsulamento FC-PGA2, que é semelhante ao FC-PGA,
mas conta com um IHS (não presente no FC-PGA)

– SECC: sigla para Single Edge Contact Cartridge, este tipo faz com que o processador utilize um encaixe linear (ligeiramente semelhante aos slots de memória, por exemplo) ao invés de contatos em formato de pinos. Para isso, o processador é montado dentro de uma espécie de cartucho;


Intel Pentium II – Encapsulamento SECC – Imagem por Intel

– SEPP: sigla para Single Edge Processor Package, este tipo é semelhante ao SECC, no entanto, o processador fica acoplado em um placa que não é protegida por um cartucho;

– LGA: sigla para Land Grid Array, esse é um padrão recente da Intel. Tem alguma semelhança com os padrões PGA, tendo como principal diferença o fato de que os processadores não utilizam pinos de contato em sua parte inferior, mas sim pontos metálicos. Quando o processador é encaixado na placa-mãe, esses pontos ficam em contato com pinos existentes no soquete (lembrando que nos padrões PGA há furos ao invés de pinos no soquete). No que se refere ao LGA, a Intel utilizava (até o fechamento deste texto no InfoWester) um tipo chamado FC-LGA4 (Flip Chip Land Grid Array, onde o número 4 indica o número de revisão do padrão).


Processador com encapsulamento FC-LGA4 –
Repare que não há pinos, somente contatos metálicos –
Imagem por Wikimedia

Na parte inferior dos processadores com encapsulamentos nos padrões PGA e semelhantes, ficam expostos uma série de contatos metálicos que fazem a comunicação entre o processador em si e os componentes do computador. Para isso, esse contatos são encaixados em uma área apropriada na placa-mãe da máquina, chamada de soquete (ou socket). Acontece que a quantidade e a disposição desses pinos varia conforme o modelo do processador. Por exemplo, a linha Intel Core 2 Duo e alguns dos modelos mais recentes da linha Pentium 4 utilizam o soquete 775 (LGA 775):


Soquete LGA 775 – Imagem por Intel

Já os processadores AMD Phenom X4 utilizam o soquete AM2+:


Soquete AM2/AM2+ – Imagem por Wikipedia


Processador Phenom X4 – Imagem por AMD

Isso deixa claro que é necessário utilizar placa-mãe e processador com o mesmo soquete no momento de montar um computador. Porém, é importante frisar que isso não é garantia de compatibilidade entre ambos. É possível, por exemplo, que uma determinada placa-mãe utilize o mesmo soquete de um processador lançado depois de sua chegada ao mercado. Apesar de ambos terem o mesmo soquete, uma incompatibilidade pode ocorrer, já que o chipset da placa-mãe pode não ter sido preparado para receber aquele processador. Por essa razão, é importante checar sempre no site do fabricante ou no manual da placa-mãe quais processadores esta suporta.

Note que a disposição de pinos (ou pontos de contato, no caso de chips com encapsulamento do tipo LGA) é feita de forma que o usuário tenha apenas uma forma de encaixar o processador na placa-mãe. Com isso, impede-se inserções erradas que possam resultar em danos ao computador. Por essa razão, se o usuário não estiver conseguindo encaixar o processador, deve evitar esforços e procurar no manual da placa-mãe a orientação correta.

Nomes-código dos núcleos

Todo processador chega ao mercado tendo um nome que permita facilmente identificá-lo, como Pentium 4, Core 2 Duo, Itanium, Athlon 64, Phenom, etc. O que pouca gente sabe é que o núcleo dos processadores recebe outra denominação antes mesmo de seu lançamento oficial: o nome-código.

A utilização de nomes-código é importante porque permite distinguir as características de arquitetura de cada chip. Mesmo dentro de uma determinada linha é possível encontrar processadores com diferenças em seu projeto. Podemos utilizar como exemplo os primeiros modelos da linha Intel Core 2 Duo, que são baseados nos núcleos de nomes Conroe e Merom. O primeiro é direcionado a desktops, enquanto que o segundo é voltado a computadores portáteis (como notebooks). Sendo assim, o Merom possui recursos que otimizam seu desempenho para exigir menos energia (por exemplo, utiliza voltagem menor e FSB reduzido, se comparado ao Conroe).

Finalizando

Os processadores são dispositivos altamente complexos, mas igualmente fascinantes. Chega a ser difícil acreditar que um chip que cabe na ponta do dedo pode realizar tantas coisas. Infelizmente, não é possível encontrar muitos documentos e imagens que detalhem os locais e as etapas da fabricação dos processadores. E não é difícil entender o motivo: esses lugares são bastante protegidos e contam com uma política extremamente rigorosa de acesso, pois simples grãos de poeira ou até mesmo as luzes do flash das câmeras podem prejudicar a produção. Além disso, é notório que cada fabricante tenta se proteger de espionagem industrial.

De qualquer forma, o texto apresentado contém explicações que ajudam não só a entender um pouco da fabricação dos processadores, mas também muitos dos conceitos que os cercam. Para saber mais, você pode consultar a primeira parte deste artigo, se já não o fez, e acessar as páginas que serviram de referência para esta matéria:

– Intel Education;
– Intel Package Type Guide;
– Wikipedia (Czochralski process);
– Wikipedia (Silicon).

Escrito por 

Referencia

http://www.infowester.com/processadores.php

http://www.infowester.com/processadores2.php