Microsoft anuncia teclado com leitor de impressão digital


A Microsoft anunciou nesta semana um teclado com leitor de impressão digital integrado, o “Microsoft Modern Keyboard with Fingerprint ID“.

Compatível com o sistema de autenticação biométrica Windows Hello, o teclado suporta Bluetooth 4.0/4.1 e wireless com frequência de 2.4GHz e alcance de até 15 metros em local aberto e até 7 metros em escritórios.

O leitor de impressão digital no teclado é a tecla posicionada ao lado da tecla Alt.

De acordo com a Microsoft, o teclado é compatível com o Windows 8/8.1, Windows 10, Windows 10 Mobile, Android, macOS e iOS. El também vem com duas pilhas AAA recarregáveis.

O novo teclado com leitor de impressão digital já está em pré-venda na Microsoft Store por US$ 129,99 nos Estados Unidos. Ainda não foi confirmado se ele também será lançado por aqui.

Microsoft anuncia teclado com leitor de impressão digital

Vídeo apresentando o teclado com leitor de impressão digital:

Fontes e Direitos Autorais: Baboo.com – 16/06/2017 – 8:36 am.

Windows chega aos 30 anos: relembre a trajetória do sistema


Nesta sexta-feira, 20 de novembro de 2015, o Windows chega a uma marca histórica. São exatos trinta anos de trajetória desde o lançamento do Windows 1.0, no ano de 1985. De lá para cá, são muitas versões, algumas delas queridas pelo público, outras nem tanto.

São 30 anos de atualizações, erros, acertos, telas azuis, novas interfaces e novos métodos de interação com o computador. Nem todos caíram nas graças dos usuários, mas não dá para dizer que o Windows não tem uma história rica.

Windows 1.0

Quando estava em desenvolvimento, era chamado pelo nome pouco simpático de “Interface Manager”, ou “Gerenciador de interfaces”. Felizmente a Microsoft teve o bom-senso de rever o nome para “Windows”, por causa da interface de janelas. O sistema era basicamente uma interface gráfica, comandada pelo mouse, sobre o MS-DOS, cujas linhas de comando eram complexas demais para o público comum na época.

Ele foi anunciado em 1983, mas demorou dois anos para ser lançado. A demora fez com que muitos acreditassem que se tratasse de um “vaporware”, termo da indústria de tecnologia para designar produtos anunciados, mas que nunca são lançados.

Entre as novidades, listadas efusivamente neste vídeo por Steve Ballmer, estão recursos como calendário, calculadora, o Paint, relógio, bloco de notas, entre outros. Ele já trazia menus expansíveis, barras de rolagem, ícones, entre outras novidades que tornaram o Windows mais amigável para o usuário comum.

Windows 2.0

Lançada em 1987, a versão trazia melhorias gráficas e permitia a sobreposição de janelas. Também foi adicionada a ferramenta que possibilitava a utilização de atalhos do teclado para facilitar a vida do usuário. Ele foi inicialmente criado para processadores 286, da Intel, mas recebeu uma atualização para o 386.

Quem está acostumado a mexer nas configurações do Windows deve estar familiarizado com uma ferramenta nascida nesta época: o Painel de Controle apareceu pela primeira vez no Windows 2.0.

Windows 3.x

Com lançamento em maio de 1990, foi o primeiro Windows a avançar para a nova década, recebendo uma atualização para a versão 3.1 em 1992. Juntas, as duas versões venderam 10 milhões de cópias em dois anos. Foi o maior sucesso comercial do Windows até o momento.

Agora o Windows suportava gráficos com 16 cores e ganhou recursos para gerenciamento de programas, arquivos e impressoras. Também passou a contar com os clássicos Paciência, Copas e Campo Minado.  Para instalar, era necessária uma caixa cheia de disquetes, com manuais de instruções bem pesados. Outros tempos.

A Microsoft também lançou o Windows for Workgroups 3.11, voltado para redes corporativas, mas que esteve longe de ser um grande sucesso comercial.

Paralelamente, também foi criado o Windows NT (New Technology) 3.1, o primeiro sistema realmente 32 bits lançado pela Microsoft, que não era mais baseado no MS-DOS. O NT serviu de base também para todos os sistemas da empresa depois do Windows 2000.

Windows 95

A Microsoft começou a nomear seus sistemas com o ano de lançamento nesta versão, lançada em 24 de agosto daquele ano. Foram 7 milhões de cópias vendidas em apenas cinco semanas, com uma campanha agressiva que incluía comerciais de TV com a música dos Rolling Stones “Start Me Up”, mostrando o botão Iniciar, novidade na época.

O sistema viu o lançamento da primeira versão do Internet Explorer. Ele era adaptado para a internet de uma forma geral, com suporte a conexões discadas e o novo sistema de plug-and-play, facilitando a instalação de hardware. Além do botão Iniciar, o Windows ganhou a barra de tarefas e os botões de minimizar, maximizar e fechar, que se tornariam um padrão em breve.

Para funcionar, era recomendado um processador 486 (quem lembra?) e 8 MB de RAM. Ele foi lançado em disquetes ou em CD-ROM, em 12 línguas diferentes.

Windows 98

Lançada em 25 de junho de 1998, foi a última versão a ser baseada no MS-DOS. Ela foi feita pensando no usuário final e se propunha a evoluir o Windows 95 tanto para trabalho quanto para dviersão. Ele facilitava a conexão à internet e trouxe a possibilidade de fixar programas na barra de tarefas ao lado do menu Iniciar. O sistema também trouxe o suporte à leitura de DVDs e reconhecimento de dispositivos USB.

Windows 2000

Lançado em 17 de fevereiro de 2000, ele foi criado para substituir o Windows 95, o 98 e o NT Workstation 4.0 em todos os computadores de uso corporativo. Ele foi criado sobre o código do próprio NT Workstation 4.0.

Entre seus recursos estavam a simplificação da instalação de hardware com a ampliação do plug-and-play, suporte a redes avançadas e produtos sem fio e dispositivos USB.

Windows ME

Amplamente reconhecida como uma das maiores bombas já lançadas pela Microsoft, a “Millenium Edition” (apelidada de “Mistake Edition”, ou “edição do erro”) foi lançada em 14 de setembro de 2000. A PC World chegou a considerá-lo um dos piores produtos de tecnologia de todos os tempos, afirmando que “os usuários tinham problemas para instalá-lo, fazê-lo rodar, fazê-lo funcionar com outros hardwares e softwares e fazê-lo parar de funcionar”.

Ele foi criado para o uso doméstico e tinha o objetivo de trazer melhorias para a reprodução de mídia e a criação de redes domésticas. Ele também trouxe a restauração do sistema, que está presente até hoje nas versões recentes do Windows. Foi o último sistema da Microsoft a ser desenvolvido sobre o código do Windows 95.

Windows XP

Aposentado há pouco tempo pela Microsoft chegou ao mercado em 25 de outubro de 2001 e foi um sucesso. Até hoje é um sucesso, e muitos usuários se recusam a abandoná-lo, mesmo com o suporte encerrado.

Ele foi construído do zero depois que a Microsoft abandonou a base do Windows 95, com um visual renovado e usabilidade melhorada. Foram 45 milhões de linhas de código para criar o sistema. Para o uso doméstico, trouxe melhorias no Media Player e o Movie Maker e o suporte melhorado a fotografias digitais. Já para as empresas, trouxe sistema de criptografia de arquivos, desktop remoto. Ele também trouxe suporte a redes sem fio 802.1x, facilitando a vida de quem usava o XP em notebooks.

Para tentar cobrir o avanço das ameaças de segurança, a Microsoft começou a emitir atualizações pela internet. O XP também foi o primeiro a impor o limite de instalações do sistema operacional. Antigamente, era possível comprar apenas uma cópia e instalar por infinitos computadores, o que passou a ser inviável. Talvez por isso o XP, além de um sucesso comercial, também foi um dos softwares mais pirateados da história.

Windows Vista

Seguindo o sucesso do Windows XP, a Microsoft lançou em 2006 o Windows Vista, que também é reconhecido como um erro da empresa. O software teve problemas em sua fase de desenvolvimento. Ele deveria ter sido lançado dois ou três anos depois do XP, mas só saiu cinco anos depois. Mesmo assim, ele trouxe algumas novidades, como o Controle de Conta de Usuário, para evitar que vírus e malwares pudessem fazer alterações perigosas no computador da vítima.

O design foi uma parte importantíssima do Vista, trazendo o Aero, uma nova identidade visual que permitia que as bordas das janelas ganhassem um tipo de transparência interessante, mesmo que isso fizesse com que o software ficasse mais pesado. O botão Iniciar também foi recriado.

No lançamento, o Vista estava disponível em 35 idiomas, e 1,5 milhões de dispositivos eram compatíveis na ocasião. Contudo, falhas minaram o possível sucesso. Problemas da incompatibilidade existiram aos montes, e não faltam relatos do desastre que foi o seu desenvolvimento.

Steve Ballmer, CEO na ocasião, revela que no meio do processo de criação foi necessário resetar o código-fonte do Vista, até então conhecido como Longhorn. Este foi o maior arrependimento de sua gestão: “tentamos realizar uma tarefa grande demais e, no processo, perdemos milhares de horas de trabalho e inovação”, conta.

Windows 7

Agora, sim, a Microsoft acertou a mão. Em 2009, chegava ao mercado a versão 7 do Windows, que aproveitava o que havia de bom no Vista e melhorava o que estava de errado, tornando o sistema muito mais compatível e amigável. Antes do lançamento, ele já havia sido testado por 8 milhões de pessoas durante o período de beta.

O Windows 7 trouxe algumas mudanças de interface e novas formas de interagir com as janelas do sistema, como o Aero Shake, que permitia “chacoalhar” uma janela para isolá-la do restante e o Aero Peek, que possibilitava “espiar” uma prévia de cada uma das janelas minimizadas na barra de tarefas. Já o Aero Snap trazia algo que foi difundido no Windows 8, que é a possibilidade de fixar programas em um lado da tela, ocupando 50% do espaço.

O Windows 7 também trouxe o início do Windows Touch, permitindo usar o toque na tela para interagir com o sistema. Isso também foi aprofundado na versão seguinte do software.

Windows 8 e 8.1  

Introduzido em 2012, o sistema trouxe mudanças radicais de interface. A principal delas era a extinção do tradicional Menu Iniciar para dar lugar a uma Tela Iniciar repleta de quadrados e retângulos que representavam os aplicativos, que a Microsoft chama de “blocos dinâmicos”.

O Windows 8 também deu início à loja de aplicativos do Windows, uma tentativa da Microsoft de ter um pouco mais de controle sobre o ecossistema dos PCs. No entanto, o recurso nunca foi realmente atraente para desenvolvedores, e até hoje as opções da loja não são muitas.

O sistema, no entanto, não convenceu os usuários a migrar do Windows 7, incapaz de superar a popularidade de seu antecessor. Tanto que até agora o sistema de 2009 ainda é o mais usado no mundo.

A principal novidade do Windows 8, os blocos dinâmicos, também são um dos motivos pelo qual ele ficou para trás. Usuários e empresas alegavam que a nova usabilidade tornava o sistema pouco parecido com o que estavam acostumados, dificultando a adaptação para a novidade. Além disso, os blocos, otimizados para o toque, não eram muito bons para o uso com mouse e teclado.

A geração também trouxe o Windows RT, uma adaptação do Windows 8 para tablets que não rodavam os programas tradicionais legado do Windows, apenas os apps da Windows Store. Foi um fracasso ainda maior, e a maior parte dos parceiros abandonou o barco ainda no primeiro ano.

Windows 10

Lançado neste ano, o Windows 10 traz uma nova estratégia para a empresa: oferecer o Windows como um serviço, o que significa que ele deve ser aprimorado ao longo dos meses e anos com atualizações graduais de segurança e novos recursos.

A versão 10 do sistema ainda aposta no conceito dos blocos dinâmicos, mas desta vez eles são muito mais discretos e fazem parte de um Menu Iniciar que, ao mesmo tempo, é novo e antigo. Novo porque ele foi modificado em relação ao que vimos no 7 e também no 8, mas antigo, porque traz familiaridade com o Windows 7, solucionando o principal erro do Windows 8.

Uma novidade do Windows 10 foi a introdução do programa Windows Insider, que permite que usuários recebam frequentemente compilações de teste do Windows e testem as novidades antes de o grande público recebe-las. Assim, a Microsoft pode liberar as atualizações sem temer tantos problemas de compatibilidade, já que tudo é testado por uma base bem grande de usuário de teste antes de ser liberada para uma base ainda maior de usuários comuns.

O sistema trouxe outras novidades como a assistente Cortana e o navegador Microsoft Edge, que colocou um fim no malfadado Internet Explorer. O browser antigo ainda está presente no sistema, mas em segundo plano, apenas por razões de retrocompatibilidade.

Outra diferença grande em relação a todas as versões anteriores do Windows, é que a Microsoft permitiu que usuários do Windows 7 e 8.1 fizessem a atualização grátis para a nova plataforma, o que alavancou rapidamente a base de usuários do 10. Em 4 meses, já são mais de 100 milhões de pessoas no sistema mais recente, já se aproximando do pico de usuários do Windows 8.

Fontes e Direitos Autorais: OlharDigital – Renato Santinoem 20/11/2015 às 07h00 

Processador Intel 4004 completa 44 anos


O dia 15 de novembro de 2015 marcou o 44º aniversário do processador Intel 4004, o primeiro lançado comercialmente pela empresa.

Processador Intel 4004 completa 44 anos

O processador foi o primeiro modelo single-chip, tinha clock de 740kHz, 4 bits e era conectado à placa-mãe através de seus 16 pinos. Além disso, o Intel 4004 era capaz e processar entre 46.300 e 92.600 instruções por segundo.

Processador Intel 4004 completa 44 anos

Processador Intel 4004

Parece muito, mas nem se compara aos processadores disponíveis hoje. Para se ter uma ideia, os processadores compatíveis com o socket LGA1155 possuem um desempenho até 350.000 vezes maior do que o 4004 e cada um de seus transistores utiliza 5.000 vezes menos energia do que os usados pelo velho chip.

O primeiro processador Intel 4004 tinha 2.300 transistores. Para efeito de comparação, um processador da linha Intel Core disponível em 2010 tinha 560 milhões de transistores.

Além disso, a largura da linha de circuito do 4004 era de 10 mícrones ou 10.000 nanômetros. Um cabelo humano tem em média m diâmetro de 100.000 nanômetros.

Confira a história do 4004 em sua página dedicada no site da Intel.

Die do processador Intel 4004

Die do processador Intel 4004

Fontes e Direitos Autorais: Baboo.com – Sid Vicious @ 16 nov 2015 | 9:03 am

Pesquisadores criam HD que pode durar 1 milhão de anos


Apesar do aumento da capacidade de armazenamento, os HDs magnéticos de hoje têm vida útil relativamente curta – mantidos em condições ideais, preservam os dados por cerca de uma década. Mas pesquisadores da Universidade de Twente querem mudar esta história com um disco rígido que pode durar 1 milhão de anos, apelidado de “gigayear”.

discoqrcode

A ideia é criar uma tecnologia que possa preservar tudo que foi produzido pela humanidade, entre músicas, livros, filmes e fotos, até o “fim dos tempos”. Para isso, os cientistas utilizam um conceito simples: todos os dados são registrados em linhas, que formam um padrão marcado – um código QR, basicamente – em um disco metálico bem fino. Ele é, por fim, coberto por uma camada protetora, que evita a corrupção das informações.

O círculo em que fica gravado o QR code é feito de tungstênio, que tem alto ponto de fusão – para derretê-lo, é preciso colocá-lo sob 3.422 graus celsius – e baixo coeficiente de dilatação. A “barreira”, por sua vez, é feito de nitreto de silício (Si3N4), que também se dilata pouco dependendo da temperatura a que é exposto. A combinação é capaz de resistir bravamente por 1 milhão de anos – ou até 1 bilhão –, de acordo com testes de envelhecimento acelerado feitos no laboratório.

Resistência – Alguns fatores, no entanto, precisam ser considerados antes de colocarmos os discos rígidos eternos no posto de “definitivos”, como bem lembrou o Technology Review, do MIT. O processo de envelhecimento é feito em um ambiente controlado, e é bem provável que os HDs “gigayear” não resistam a situações adversas – um incêndio já seria capaz de acabar com tudo que o aparelho estivesse guardando, por exemplo.

Ainda assim, os cientistas da universidade holandesa parecem estar no caminho certo. Testes realizados pela equipe colocaram os discos sob um calor de 445 graus Kelvin (cerca de 171 °C) – e os dispositivos não sofreram dano algum. Problemas foram surgir apenas nos 848 °K (574 °C), havendo perda de informações, mas sem comprometimento da estrutura em si. E a ideia dos pesquisadores é deixar os HDs “gigayear” ainda mais resistentes, de forma que todo o conteúdo já produzido pela humanidade hoje chegue intacto a civilizações do futuro.

Fontes e Direitos Autorias: Notícias – TI – 23/10/2013 08h49 – Atualizado em 22/10/2013 20h54 – , de INFO Online

Porque é a Lei de Moore, e não a mobilidade, que está “matando” o PC

Chips podem ter se tornado tão rápidos que mesmo os mais antigos são o suficiente para a maioria dos usuários, reduzindo a necessidade de upgrades e as vendas de novas máquinas.


Embora os rumores da morte do PC sejam um grande exagero – uma indústria que comercializou mais de 350 milhões de unidades em 2012 não está “morta” – não há dúvidas que que os computadores pessoais não vendem tão bem quanto antes. Os analistas ainda prevêem que as vendas de PCs irão exceder em muito as de tablets num futuro próximo, mas a taxa de crescimento nas vendas é praticamente nula. A grande pergunta é: porque?

Há algumas teorias nas quais a sabedoria popular se baseia. Muitos culpam a estagnação nas vendas de PCs em uma economia igualmente estagnada, ou apontam para a ascensão dos smartphones e tablets. Outros argumentam (de forma persuasiva) que o pouco crescimento pode ser atribuído às idiossincrasias do mercado de PCs nos países em desenvolvimento, onde os computadores são um item “de luxo” raramente substituído. Segundo os analistas, uma “segunda onda” de vendas ainda está por vir nestes países.

Assim como a maioria dos setores econômicos, o mercado de PCs é influenciado por uma enorme quantidade de fatores, e há um pouco de verdade em todas as três explicações. Mas entretanto, após observar minha sogra alegremente usando o Facebook e enviando e-mails em um PC de quase 10 anos com um processador Pentium 4, uma possibilidade mais insidiosa me veio à mente.

Será que o desempenho dos processadores atingiu um nível “bom o suficiente” para a maioria dos usuários alguns anos atrás? Seriam estas máquinas mais velhas ainda boas o bastante para completar as tarefas do dia-a-dia de uma pessoa comum, reduzindo o incentivo para um upgrade?

“Antigamente era necessário substituir o PC após alguns anos ou você ficaria muito para trás. Se não fizesse isso, não conseguira nem rodar as versões mais recentes de seus programas”, diz Linley Gwennap, principal analista do Linley Group, uma empresa de pesquisa focada em semicondutores e microprocessadores. “Agora você pode manter o mesmo PC por cinco, seis, sete anos sem problemas. Sim, ele pode ser um pouco lento, mas não o bastante para atrapalhar o uso diário”.

Processadores antigos ainda são o suficiente para o dia-a-dia

Isto pode ser um choque para os entusiastas que tentam tirar o máximo de desempenho de seus PCs, mas o cidadão comum quase nunca converte vídeos, e você não irá vê-lo disputando uma partida de Crysis 3. Em vez disso ele passa a maior parte do tempo em tarefas mais mundanas, geralmente centradas na web: compras online, envio de e-mails, contato com família e amigos em redes sociais, talvez um vídeo ocasional no YouTube – na resolução padrão, nada de HD – ou jogando algumas partidas de Paciência.

Em outras palavras, de forma alguma o tipo de atividade que pede um processador Intel Core i7 overclockado e refrigerado a água. Ou mesmo um dos modernos processadores Intel Core i3 da família Ivy Bridge, se formos honestos.

“Se você está apenas navegando na web, montando algumas planilhas aqui e editando alguns textos ali, não vai notar a diferença entre um processador mais antigo de 2.5 GHz e um modelo recente de 3 GHz”, diz Gwennap.

O PC Pentium 4 de minha sogra engasga um pouco (especialmente aos meus olhos), mas aguenta sem problemas tarefas como o uso básico na web e reprodução de vídeo em definição padrão. Mais ainda, a necessidade por chips sofisticadíssimos pode ser reduzida ainda mais à medida em que mais e mais tarefas que antes exigiam computadores poderosos fazem a transição para servidores na nuvem. Veja por exemplo o editor de imagens Pixlr, da AutoDesk, e a audaciosa iniciativa GeForce Grid da Nvidia, além de uma multidão de serviços de streaming de vídeo. Os Chromebooks estão se tornando populares por um motivo.

moore_borderlands2-360px.jpg
Apesar de todos os efeitos visuais, Borderlands 2 ainda
roda bem em máquinas com processadores Intel Core 2

Processadores Intel Core 2 Duo e Core 2 Quad foram lançados em 2006, e ainda tem bom desempenho mesmo que você esteja levando seu PC além das tarefas básicas na web. Gamers ainda podem jogar a maioria dos títulos modernos (como Borderlands 2 e Skyrim) com bom nível de detalhes e resolução HD em computadores com processadores Core 2. Testes recentes feitos por sites como o Tom’s HardwareOCAholic mostram que estes processadores ainda se comparam bem em relação a alguns modelos mais recentes da AMD e da família Intel Core. Processadores mais antigos da AMD, como o Phenom II X4 Black Edition de 3.4 GHz, lançado em 2009, também ainda “tem jogo”, de acordo com clientes satisfeitosno site especializado Newegg.

Há um motivo pra isso, diz Gwenapp. A Lei de Moore – pelo menos na forma em que geralmente é mencionada – se transformou na “Teoria Mais ou Menos Desprovada de Moore” nas últimas gerações de processadores.

“Acho que estamos aquém da lei de Moore desde que a Intel atingiu a Power Wall (ponto no qual não vale a pena aumentar o clock de um processador, porque o consumo de energia e calor gerado são excessivos) em 2005”, disse Gwenapp em uma entrevista por telefone. “Nesse ponto energia se tornou o fator limitante, não a tecnologia ou quantidade de transistores”. Os ganhos de desempenho foram reduzidos de forma ainda mais dramática depois que a Intel lançou os primeiros chips baseados na arquitetura Nehalem no final de 2008”.

A Lei de Moore dá de cara com a parede

Antes de entrarmos em mais detalhes, vamos recapitular alguns pontos: a Lei de Moore leva o nome do ex-CEO e co-fundador da Intel, que em 1965 previu que o número de transistores que poderiam ser colocados em um circuito integrado iria dobrar a cada dois anos. A maioria das pessoas cita uma versão modificada da lei, proferida por David House, um executivo da Intel, que alega que o poder de processamento dobra a cada 18 meses. Tecnicamente a Lei de Moore ainda se mantém. É a interpretação de House que tem deixado a desejar.

“O crescimento em desempenho dos processadores da Intel foi reduzido drasticamente”, escreveu Gwennap em uma coluna na newsletter Microprocessor Report em dezembro de 2012. “…mesmo levando em conta o modesto ganho com os novos processadores Sandy Bridge, o desempenho vem aumentando a uma taxa de apenas 10% ao ano entre os desktops e 16% ao ano entre os notebooks (entre 2009 e 2012), muito longe dos bons tempos de um crescimento anual de 60%”.

Em outras palavras, os processadores mais novos não são mais tão superiores aos seus antecessores. Para o usuário comum, que basicamente usa o Facebook, e-mail e iTunes, a diferença no dia-a-dia entre um processador Intel Core 2 e um modelo mais moderno é quase inexistente, não importa o que dizem os benchmarks.

“Certamente acredito que a redução no ganho de desempenho dos computadores é um grande fator [na redução das vendas]”, disse Gwenapp à PCWorld. “Talvez mais ainda que os tablets. Porque substituir seu PC se o novo modelo não é notavelmente mais rápido do que aquele que você comprou dois ou três anos atrás”?

O desempenho fica em segundo plano

Mas o argumento de que “os processadores são bons o suficiente” gera controvérsia. “Estou aqui há 20 anos, e naquela época as pessoas já diziam que um Pentium de 60 MHz com 1 MB de RAM e Windows 3.1 era ‘bom o suficiente’”, disse Dan Snyder, Gerente de PR, na Intel, à PCWorld via e-mail. A idéia do “bom o suficiente” circula desde sempre. Lembram-se do mito de que Bill Gates teria dito que 640 KB de RAM seriam o suficiente para qualquer um?

Mas desta vez há um detalhe: Snyder listou vários exemplos dos mais novos feitos tecnológicos da Intel – como processadores para tablets e gráficos integrados mais poderosos – e embora todos eles sejam realmente intrigantes por mérito próprio, nenhum envolve um salto no desempenho “bruto” do processador (e como poderia, com as limitações da Power Wall?).

Em vez disso, os processadores modernos focam na introdução de extras que agregam valor para complementar o ganho incremental anual de desempenho. Gráficos integrados melhoraram tremendamente nos últimos anos, especialmente nas APUs (Accelerated Processing Units) da AMD e na GPU Intel HD Graphics 4000 inclusa em alguns processadores da família Ivy Bridge. De fato, os gráficos integrados evoluíram ao ponto de serem capazes de oferecer experiências de jogo bastante aceitáveis, se você estiver disposto a reduzir o nível de detalhes gráficos no jogo.

A redução no consumo de energia é outro foco para os fabricantes de chips, e não apenas para aumentar a autonomia de bateria em tablets e notebooks. Os ganhos em energia e desempenho gráfico introduzidos nos processadores modernos podem na verdade ajudar a compensar os ganhos incrementais no desempenho do processador.

moore_amdtrinity-360px.jpg
Este esquemático da arquitetura AMD Trinity mostra a
importância da GPU. Compare o tamanho dela com o das CPUs!

“A Lei de Moore sempre foi sobre o custo dos transistores, mas também sobre o aumento no desempenho, já que com custo menor você seria capaz de colocar mais e mais deles no circuito”, disse Gary Silcott, Gerente Sênior de PR para as CPUs e APUs da AMD via e-mail. “À medida em que exploramos os limites físicos dos materiais, e o custo das fábricas sobe, em determinado ponto o custo dos transistores exige que você eleve o desempenho e amplie a autonomia de bateria no próprio design do chip. É por isso que a AMD migrou para o conceito de computação heterogênea em suas arquiteturas de APUs. Combinando diferentes tipos de processadores (CPUs e GPUs) em um mesmo “Sistema em um Chip” é possível atender à uma gama muito maior de cargas de trabalho, com GigaFLOPS de poder de processamento em uma área muito pequena e consumo de energia muito baixo”.

Isso significa o que parece? “Absolutamente”, disse ele quando perguntei se a AMD planejava focar a maior parte de seus esforços de desenvolvimento na melhoria da eficiência energética e na capacidade dos gráficos integrados, em vez de se concentrar apenas no desempenho do processador. “Esta questão é o cerne de tudo sobre o que estamos falando”.

Uma visão unificada, ao que parece, pode ser o futuro dos processadores. No ano passado a AMD, Qualcomm, ARM, Samsung, Texas Instruments e outros grandes fabricantes de chips criaram aHeterogenous System Architecture Foundation para “impulsionar uma única arquitetura para superar as limitações de programação das CPUs e GPUs atuais”. Em vez de derrubar a barreira do consumo de energia, a HSA Foundation pretende contorná-la usando técnicas de computação paralela.

Uma esperança

Mesmo que o desempenho bruto dos processadores não esteja se acelerando o suficiente para encorajar novas vendas de PCs, o trabalho da HSA Foundation aponta para um futuro brilhante tanto para o usuário comum quanto para os entusiastas. E mesmo que a visão titubeie nos detalhes – notavelmente a Nvidia e a Intel estão ausentes no grupo – os líderes na indústria estão trabalhando duro para desenvolver avanços nos processadores em si.

Tanto a Intel quando a AMD investem pesadamente em pesquisa e desenvolvimento para se manter “na crista da onda” da tecnologia. A Intel, em particular, tem reservados só para este ano US$ 18,2 bilhões – bilhões! – de dólares para pesquisa e aquisições, com planos para a produção de “wafers” (os discos de silício onde os processadores são produzidos) maiores e novas tecnologias de litografia que permitirão à empresa criar transistores cada vez menores nos próximos anos. O processo de 22 nanômetros da família Ivy Bridge é só o começo.

Enquanto isso a corrida da Intel rumo à computação ubíqua – controles por gestos, reconhecimento de fala e mais – não só avança os tradicionais modelos de interface, como também as tecnologias envolvidas geram demanda por mais poder de processamento. Espertos.

moore_haswell-360px.jpg
Durante a CES 2013 a Intel apresentou um conceito que ilustra
sua visão de um Ultrabook Híbrido com processador Haswell

A trégua temporária na ênfase no desempenho a qualquer custo é na verdade uma coisa boa para a indústria, por mais que meu coração geek doa quando digo isso. Encurralados contra a barreira no consumo de energia, a Intel e a AMD estiveram livres para inovar em outras áreas tecnológicas, o que lhes permitiu introduzir mudanças que alteram o próprio conceito de computadores como os conhecemos.

“Com Ultrabooks, Tablets e conversíveis sensíveis ao toque, a distinção entre os dispositivos móveis é cada vez menor”, disse Snyder, da Intel, e novamente ele está certo. Se a empresa não tivesse sido capaz de focar seus esforços na eficiência energética e desempenho gráfico, será que teríamos um aparelho que quebra paradigmas como o Microsoft Surface Pro? Aposto que não.

O lançamento da próxima geração de processadores da Intel, de codinome Haswell, promete inaugurar uma era de híbridos de tablet e notebook leves, sem ventiladores barulhentos, com o poder de processamento de um PC e baterias capazes de durar um dia inteiro. A próxima geração de APUs da AMD e tecnologias recentemente anunciadas como a Turbo Dock prometem o mesmo potencial, e jogos em 3D serão suportados em qualquer lugar.

O futuro é nesta direção. A ausência de ganhos estratosféricos de desempenho sem dúvida deixou muitas pessoas agarradas aos seus velhos PCs muito além do tradicional ciclo de atualizações, mas a “calmaria” também abriu portas que de outra forma teriam se mantido fechadas se a Intel e a AMD tivessem continuado a “pisar fundo” no desempenho do processador. Considere tudo isso como uma espécie de “retirada para reagrupar”, e não um sinal do fim do PC.

Fontes e Direitos Autorais: Brad Chacos, PCWorld EUA – 11-03-2013.

Hardware do Galaxy S3 poderá ser usado em Windows Phone 8 da Samsung


Nem só de Android vive a Samsung. Prova disso é que, segundo fontes do site WP-Life, a empresa sul-coreana está cogitando utilizar o hardware do Galaxy S3, que rodará o Android, também em seu primeiro aparelho com o Windows Phone 8. Seu nome provável será Focus SII, e ele deverá absorver boa parte das especificações presentes em seu “irmão”.

Sucessor do Samsung Focus pode ser melhor do que se imaginava (Foto: Reprodução)

Sucessor do Samsung Focus pode ser melhor do que se imaginava (Foto: Reprodução)

De acordo com o WP-Life, a utilização do prometido hardware quad-core só será possível graças às novidades que a Microsoft pretende trazer ao mercado com o Windows Phone 8 – o que inclui suporte a processadores com mais de um Core. Assim, o hardware do Galaxy, que até então parece muito avançado para aparelhos com o sistema operacional móvel da Microsoft, agora se encaixaria perfeitamente em uma tela estilo Retina, de alta resolução, além de LTE (4G) e muitas outras novidades.

Dentre as especificações especuladas no Galaxy S3 e que podem chegar também ao Focus SII estão a câmera de 12 megapixel na parte traseira e outra de 2 megapixel na frente, suporte a NFC, além de Samsung Cloud e Photo Studio atualizado. Além disso, o design do Focus também será bem parecido com o do Galaxy, porém com a marca Windows Phone, um botão de câmera diferente e algumas outras pequenas diferenças.

Fontes e Direitos Autorais: Aline Jesus – TechTudo – 02/05/2012 14h15 – Atualizado em 02/05/2012 14h15

IBM testa chip inspirado em cérebro

Um sistema que integre software e hardware, capaz não apenas de analisar informações complexas em tempo real como também de aprender com os resultados.


Um dos protótipos apresentados hoje: computação cognitiva imita estrutura de funcionamento do cérebro.
//
São Paulo- Um sistema que integre software e hardware, capaz não apenas de analisar informações complexas em tempo real como também de aprender com os resultados.

Nele, novas ligações são feitas a cada input, e as experiências anteriores são utilizadas para elaborar a próxima ação. Basicamente, um sistema como esse reconhece rostos, se lembra de ações passadas e sente as variações do ambiente por meio de sensores. Tudo isso, ao mesmo tempo.

Essa é a meta do projeto Synapse (Systems of Neuromorphic Adaptive Plastic Scalable Electronics), desenvolvido pela IBM Research: recriar as sinapses do cérebro através de algoritmos e circuitos de silício.  As sinapses são as estruturas responsáveis por transmitir o impulso nervoso de um neurônio ao outro.

Hoje, a empresa anunciou a conclusão da primeira fase do empreendimento: dois chips experimentais, feitos para similar a percepção, ação e cognição do cérebro.

Embora não contenham elementos biológicos, os chamados “neurosynaptic computing chips”, ou chips neuro-sinápticos, possuem circuitos inspirados na neurobiologia: cada um conta com 256 “neurônios”; um deles contém 262.144 sinapses programáveis, o outro, 65.536.

Os dois protótipos foram construídos na unidade de Fishkill, em Nova York, e estão sendo testado nos laboratórios de Yorktown Heights (NY) e San José, na Califórnia. Até agora, já demonstraram habilidade em tarefas simples, como navegação, visão, reconhecimento de padrões, memória e classificação de objetos.

Esses chips são a base do que a IBM imagina como futuro da informática: a computação cognitiva. Os sistemas construídos com eles não serão programados da mesma forma que os atuais: eles devem aprender através das experiências, encontrando correlações e criando hipóteses– como faz o cérebro.

A meta do SyNAPSE  é criar um sistema de chip com 10 bilhões de neurônios e trilhões de sinapses, que consuma menos de um  kilowatt e ocupe menos de dois litros de volume. O sistema não apenas analisaria informações complexas de vários inputs sensoriais, mas interagiria de acordo.

Por exemplo, um supermercado poderia usar um sistema cognitivo para monitorar seu estoque. Medindo temperatura, textura e odor dos alimentos, ele conseguiria registrar (e aprender) quais estão ou não estragados.

Com o fim da fase 1, a IBM Research e sua universidades parceiras no projeto (Columbia University; Cornell University; University of California, Merced; e University of Wisconsin, Madison) receberam US$21 milhões do governo americano para desenvolver a fase 2.

O objetivo final é fazer com que os computadores deixem de ser “grandes calculadoras” para que passem a ser sistemas com capacidade de aprendizado.

Fontes e Direitos Autorais: Paula Rothman, de INFO Online – Quinta-feira, 18 de agosto de 2011 – 16h01.