Microsoft não oferecerá atualizações de segurança realizadas ao Windows em computadores com antivírus considerados incompatíveis


A Microsoft publicou em seu site de suporte um alerta informando que não oferecerá atualizações de segurança para o Windows em PCs com antivírus incompatíveis.

A empresa tomou esta atitude depois que os usuários enfrentaram problemas com a atualização disponibilizada recentemente com foco nas vulnerabilidades Meltdown e Spectre.

Por causa dos antivírus incompatíveis, alguns PCs não puderam mais ser inicializados corretamente após a instalação da atualização. Para evitar problemas similares no futuro, a Microsoft alertou que não oferecerá atualizações de segurança para o Windows em PCs com antivírus incompatíveis.

Os desenvolvedores de softwares antivírus deverão tornar seus produtos compatíveis com esta e futuras atualizações definindo a seguinte chave de registro:

Key=”HKEY_LOCAL_MACHINE” Subkey=”SOFTWARE\Microsoft\Windows\CurrentVersion\QualityCompat”
Value=”cadca5fe-87d3-4b96-b7fb-a231484277cc”
Type=”REG_DWORD”
Data=”0x00000000”

Microsoft não oferecerá atualizações de segurança para o Windows em PCs com antivírus incompatíveis

Perguntas frequentes

Por que algumas soluções antivírus são incompatíveis com as atualizações de segurança?
Durante seu processo de testes, a Microsoft descobriu que alguns softwares antivírus de terceiros estão fazendo chamadas sem suporte para memória do kernel do Windows, causando erros de parada (também conhecidos como erros de tela azul).

O que a Microsoft está fazendo para ajudar a atenuar os problemas causados por esses aplicativos sem suporte?
Para proteger seus clientes contra telas azuis e cenários desconhecidos, a Microsoft exige que todos os fornecedores de software antivírus confirmem a compatibilidade de seus aplicativos, definindo uma chave de registro do Windows.

Por quanto tempo a Microsoft exigirá a definição de uma chave do Registro para receber atualizações de segurança?
A Microsoft adicionou esse requisito para garantir que os clientes possam instalar com êxito as atualizações de segurança de janeiro de 2018. A empresa continuará a impor esse requisito até que haja confiança de que a maioria dos clientes não encontrará falhas de dispositivo depois de instalar as atualizações de segurança.

Tenho um aplicativo antivírus compatível, mas não recebi a opção de atualizações de segurança de janeiro de 2018. O que devo fazer?
Em alguns casos, pode demorar até que as atualizações de segurança sejam entregues nos sistemas, particularmente para dispositivos que foram desligados ou que não conectados à Internet (offline). Depois que eles forem novamente ligados, esses sistemas receberão atualizações de seus provedores de software antivírus. Os clientes que ainda estiverem enfrentando problemas 24 horas depois de garantirem que seus dispositivos têm boa conectividade com a Internet deverão contactar seus fornecedores de software antivírus para conhecer as etapas de solução de problemas adicionais.

Meu software antivírus não é compatível. O que devo fazer?
A Microsoft tem trabalhado estreitamente com parceiros de software antivírus para ajudar a garantir que todos os clientes recebam as atualizações de segurança do Windows de janeiro de 2018 o mais rápido possível. Se os clientes não estiverem recebendo a atualização de segurança deste mês, a Microsoft recomenda que eles contatem seus fornecedores de software antivírus.

Tenho um aplicativo de software antivírus compatível, mas ainda estou com problemas de tela azul. O que devo fazer?
A Microsoft reuniu os seguintes recursos para ajudar os clientes potencialmente afetados:

– Solucionar problemas de erros de tela azul
– Solucionando erros de parada (tela azul) no Windows 7

Fontes e Direitos Autorais: Suporte da Microsoft – 05/01/2018 – https://support.microsoft.com/pt-br/help/4072699/january-3-2018-windows-security-updates-and-antivirus-software

Anúncios

Microsoft alerta para o fim do suporte para versões antigas do Internet Explorer


A partir de 12 de janeiro 2016, o suporte para versões antigas do Internet Explorer será encerrado. Depois desta data, somente a versão atual do Internet Explorer disponível para um sistema operacional com suporte receberá suporte técnico e atualizações de segurança.

Fim do suporte para versões antigas do Internet Explorer

A Microsoft recomenda que os clientes que executam as versões mais antigas do Internet Explorer atualizem para a versão mais recente, ou seja, o Internet Explorer 11, no Windows 7, Windows 8.1 e Windows 10.

Microsoft alerta para o fim do suporte para versões antigas do Internet Explorer

Internet Explorer 11 x Versões antigas

O Internet Explorer 11 é uma plataforma de navegador consistente e confiável para aplicativos Web corporativos. A maioria das organizações de grande porte possui uma enorme variedade de aplicativos Web que evoluíram ao longo dos últimos 20 anos. Somente o Internet Explorer 11 oferece suporte aos requisitos de segurança, capacidade de gerenciamento, desempenho, compatibilidade com versões anteriores e padrões modernos exigidos pelos grandes portfólios de aplicativos Web.

O Internet Explorer 11 oferece a melhor compatibilidade com versões anteriores de todos os navegadores da Web. Com nove modos de documentos, o Internet Explorer 11 é o único navegador a oferecer emulação de alta fidelidade para versões mais antigas do Internet Explorer. Atualizar os aplicativos para padrões modernos ainda é a melhor estratégia a longo prazo, mas você pode usar a compatibilidade com versões anteriores para fazer a atualização para o Internet Explorer 11 com ainda mais velocidade e facilidade.

Tecnologias modernas da Web, como HTML5, CSS3 e WebGL garantem o funcionamento do Internet Explorer 11 com os sites atuais. À medida que sua empresa migra cada vez mais para aplicativos e serviços baseados na nuvem, você precisa de um navegador de categoria empresarial para ajudar a garantir a continuidade dos negócios. O Internet Explorer 11 proporciona consistência e confiabilidade em suas áreas de trabalho do Windows 7, Windows 8.1 e Windows 10.

O Internet Explorer 11 é mais seguro do que as versões anteriores. Por exemplo, a empresa de segurança independente NSS Labs descobriu em 2010 que o Internet Explorer 8 bloqueava cerca de 85% do malware de engenharia social. Recentemente, ela relatou uma taxa de bloqueio de 99% para o Internet Explorer 11. Com recursos de segurança como o SmartScreen e o Modo Protegido Avançado, o Internet Explorer 11 reduz significativamente os riscos.

O Internet Explorer 11 é rápido graças a melhorias no desempenho do JavaScript, otimização de rede e renderização de texto e JPEG com aceleração por hardware plena. Acha seus aplicativos Web no Internet Explorer 8 lentos? Dê nova vida a eles fazendo a atualização para o Internet Explorer 11, a qual proporcionará um melhor uso do seu investimento em hardware. Algumas organizações justificaram a atualização para o Internet Explorer 11 com base unicamente nos benefícios de desempenho.

O Internet Explorer 11 pode facilitar sua próxima migração para o Windows, já que o Internet Explorer 11 é a única versão do Internet Explorer que funciona tanto no Windows 10 quanto no Windows 8.1. Atualizar para o Internet Explorer 11 no Windows 7 agora pode ajudar a deslanchar a próxima geração de software, serviços e dispositivos.

Embora o Internet Explorer 11 ofereça os benefícios de desempenho mais rápido, maior segurança, melhor compatibilidade com versões anteriores, suporte a padrões modernos, atualizações de segurança e suporte técnico contínuos e migrações de Windows mais fáceis, não nos esquecemos dos custos da atualização. Investimentos como o Modo Empresarial ajudam a reduzir os custos com testes e correções de aplicativos Web.

Atualização para o Internet Explorer 11

Como usuário final, você provavelmente tem as Atualizações Automáticas ativadas e já atualizou para o Internet Explorer 11 sem precisar fazer nada. Caso ainda não tenha ativado as Atualizações Automáticas, clique no botão Procurar atualizações na seção Windows Update do Painel de Controle para começar.

Se você gerencia computadores para sua organização, há vários recursos que podem ajudar os profissionais de TI a atualizar esses computadores para o Internet Explorer 11. Saiba mais aqui.

Fontes e Direitos Autorais: Baboo.com – Sid Vicious

 

10 mitos sobre computadores que insistem em resistir ao tempo


Assim como qualquer outra coisa, os computadores são alvos constantes do imaginário popular, que, ao longo dos anos, atribuiu vários mitos e lendas urbanas a eles.

É bem difícil definir como esses mitos surgiram e porquê raios eles foram passando de geração para geração. Apesar disso, é seguro dizer que uma boa parcela dessas fábulas um dia já foi verdade, mas, graças ao avanço da tecnologia, hoje não passam de conversa para boi dormir. Quanto ao restante delas, a maioria surgiu por algum mal-entendido principalmente em torno de como os computadores, o Windows e a própria internet funcionam. A partir daí ideias erradas (e muitas vezes ridículas) se propagaram e ainda estão presentes na cabeça de muita gente como verdades absolutas.

Para acabar de uma vez por todas com essas crenças, desmistificamos 10 delas logo a seguir. Confira:

1. Hackers estão tentando invadir o seu computador o tempo todo

Não há como negar que a internet é um lugar onde os mais incautos acabam sendo vítimas de golpes e invasões hackers por puro descuido. Contudo, ao contrário do que muita gente imagina, aquela figura do hacker que vive trancafiado em um quarto escuro e é alimentado apenas por pizzas jogadas por baixo da porta para não perder o foco nas milhares de invasões diárias que faz não existe.

Essa figura um tanto quanto hollywoodiana não existe e é preciso botar na cabeça que a maioria dos ataques atualmente é automatizada. Ao invés de um sujeito sentado digitando códigos freneticamente na frente de uma tela preta, a ideia aqui é que os hackers desenvolvem ferramentas que se propagam pela internet e infectam computadores em busca de dados pessoais e bancários das vítimas.

Entre os exemplos mais comuns da atualidade estão os malwares que instalam keyloggers, que registram toda e qualquer informação digitada pela vítima no computador; e o phishing, que engana os mais desavisados, levando-os, na maioria das vezes, a um site idêntico ao original, mas que cujo propósito é lhes roubar informações de autenticação.

Diferente do que muitos pensam, os hackers não passam o dia inteiro trancados em ambientes escuros. Na maioria das vezes, ferramentas automatizadas fazem todo o serviço sujo por eles

Diferente do que muitos pensam, os hackers não passam o dia inteiro trancados em ambientes escuros. Na maioria das vezes, ferramentas automatizadas fazem todo o serviço sujo por eles (Imagem: Reprodução)

2. Atualizações automáticas sempre estragam o computador

No passado, atualizar o Windows ou qualquer software era sinônimo de dor de cabeça. Não raramente nos deparávamos com a famosa (e temida) tela azul da morte após instalar um pacote de atualização e voltar atrás era uma tarefa hercúlea.

Esse inconveniente, no entanto, ficou para trás e é cada vez mais raro ver alguém reclamando que um update dizimou o computador por completo e exigiu que tudo fosse reinstalado. Nos raros casos em que isso acontece, sempre é possível utilizar a restauração do sistema para retornar a um ponto anterior à instalação ou, na pior das hipóteses, retornar a máquina para o estado de fábrica.

Atualmente, porém, esses casos são extremamente raros e a melhor solução é deixar as atualizações automáticas do seu Windows ou software favorito ativadas para não dar chance ao azar.

3. Você precisa desligar o computador antes de ir dormir

Muita gente cresceu ouvindo os pais dizer que era necessário desligar o computador sempre que ele não fosse ser utilizado. Essa recomendação muito provavelmente surgiu nos primórdios do computador, quando deixar a máquina ligada durante um período ocioso e, sobretudo, durante a noite abria espaço para o surgimento de bugs e queima de peças.

Essa realidade ficou para trás há um bom tempo e atualmente não é mais necessário desligar a máquina com tanta frequência. Isso porque os computadores mais modernos conseguem gerenciar a energia de uma maneira tão eficiente que apenas deixar a máquina “dormindo” já é suficiente para economizar na conta de luz no fim do mês. Além disso, colocar o computador apenas para dormir acelera bastante o processo de inicialização, que é bastante lento quando a máquina é desligada completamente.

Portanto, procure pelas opções de energia do seu computador e configure-as para que elas lhe ajudem a poupar energia ao mesmo tempo em que não comprometem sua produtividade. E mesmo que você acredite que não vale a pena pressionar o botão “Dormir”, dê uma chance à hibernação, que coloca o computador em estado de suspensão completa, sem consumir nenhum watt de energia, e ainda inicializa o computador rapidamente.

Na época do Windows 95, desligar o computador após sua utilização era praticamente obrigatório. Nos tempos atuais, sistemas de consumo eficiente de energia permitem apenas colocar o computador para dormir e hibernar, poupando preciosos minutos no momento da inicialização

Na época do Windows 95, desligar o computador após sua utilização era praticamente obrigatório. Nos tempos atuais, sistemas de consumo eficiente de energia permitem apenas colocar o computador para dormir e hibernar, poupando preciosos minutos no momento da inicialização (Imagem: Reprodução)

4. Vírus e malwares são o motivo do seu computador estar lento

Quando um usuário reclama de lentidão no computador, o que normalmente ouvimos em resposta é um “ele deve estar com vírus”. A verdade é que as pragas digitais atuais são focadas quase que exclusivamente na obtenção de informações pessoais dos incautos e não têm qualquer intenção de prejudicar o desempenho dos computadores, pelo contrário.

A ordem aqui é permanecer escondido, agindo no pianinho, coletando os dados das vítimas. Muitas vezes, até mesmo as mais modernas ferramentas antivírus não conseguem identificar e remover essas pestes, tendo o usuário que partir para uma remoção manual.

Apesar disso, pode ser sim que seu computador esteja infectado e sendo usado numa rede de computadores zumbis, as botnets. Mesmo assim, esses são casos mais raros e, via de regra, o motivo da lentidão é a quantidade excessiva de aplicações iniciando junto com o sistema operacional ou um navegador carregado de extensões desnecessárias.

Em casos mais graves, pode ser que algum componente de hardware esteja com defeito e comprometendo o desempenho da sua máquina. Aqui, o ideal é levar o computador a um técnico especializado e de confiança para saber o que pode estar ocorrendo e fazer uma eventual substituição de peça.

5. O Internet Explorer é lento, vulnerável e ruim

Outrora o navegador mais popular do mundo, há um bom tempo o Internet Explorer é alvo de chacota dos usuários e sobretudo do público geek. O bullying com o browser foi tão grande que a Microsoft se viu obrigada a se livrar da má reputação e recomeçar do zero com o Edge, o novo navegador que virá embutido no Windows 10.

Apesar de todo esse mal-estar, a verdade é que as últimas versões do Internet Explorer vinham apresentando melhorias sensíveis em relação aos tempos mais sombrios. As duas últimas versões do navegador, por exemplo, já ofereciam suporte a um grande leque de padrões web modernos que antes só eram vistos no Chrome e no Firefox. Inclusive uma das funções do navegador da raposa que foi abraçada pela turma de Redmond foi o modo “sandbox”, que permite a desenvolvedores web mexer e visualizar alterações no código HTML em tempo real. Por fim, o Internet Explorer 11 trouxe suporte a multiprocessamento, algo que até agora não é visto em nenhum concorrente.

É claro que ninguém voltará a utilizar o IE só por causa disso, mas a verdade é que ele não é mais aquela piada que outrora foi até sua oitava versão.

Por anos o Internet Explorer foi alvo de piadas em todo lugar na internet. Má fama veio sobretudo após o fiasco do Internet Explorer 6

Por anos o Internet Explorer foi alvo de piadas em todo lugar na internet. Má fama veio sobretudo após o fiasco do Internet Explorer 6 (Imagem: Reprodução)

6. Codecs são necessários para assistir vídeos online

Os dias em que isso foi verdade já ficaram para trás há muito tempo. Na época, para assistir qualquer coisa online era necessário ter uma penca de codecs instalados no computador, sem contar os famigerados RealPlayer, QuickTime e DivX Player. Aqui e acolá surgia um e outro site que exigia o Java, o que geralmente acabava travando qualquer computador mais modesto.

Atualmente, no entanto, essa realidade de trevas já não mais existe e tudo funciona na base do HTML5 ou do Flash.

É importante ressaltar que nenhuma dessas duas tecnologias exige que você baixe e instale codecs específicos. Aqui, tudo é transmitido diretamente para o computador do usuário, sem necessidade de decodificação, e a única exigência é ter ou um navegador com suporte a HTML5 (o que a maioria já oferece) ou o plugin do Flash instalado. Fora isso, jamais clique em banners que demandam a instalação de algo desse tipo, pois, no final das contas, você acabará instalando um punhado de junkware e comprometendo o desempenho do seu computador.

Codecs só são necessários quando você baixa um arquivo de vídeo para o computador – e mesmo nesses casos o melhor a se fazer é optar por algo como o VLC, player para lá de popular que já traz consigo uma enorme quantidade de codecs e nenhuma pegadinha.

7. Muita memória RAM em uso é sinal de que há algo errado

Foi-se o tempo em que 64 MB de memória RAM eram suficientes para dar conta do recado. Contudo, à medida que se torna mais comum vermos computadores com 4 GB, 8 GB e até 16 GB de RAM, mais pessoas relatam que o Windows e outros programas parecem sempre querer mais.

É verdade que cada vez mais não só o Windows, como também o Linux, Mac OS X e até mesmo os sistemas operacionais móveis consomem mais memória, mas isso não é necessariamente algo ruim. O uso cada vez maior de memória RAM é proposital e os softwares atuais são desenvolvidos de maneira tal a alocar cada vez mais recursos nela.

Isso tem sido feito basicamente para que o acesso a esses recursos seja cada vez mais rápido e o usuário não fique esperando para que os dados sejam acessados no HD, que é mais lento que a memória RAM. E, ao contrário do que acontecia antigamente, se o seu computador “sentir” que precisa de mais espaço livre na memória RAM, ele próprio irá executar uma limpeza e abrir espaço para algo mais importante.

Portanto, não adianta se preocupar com isso a não ser que o seu computador realmente esteja sofrendo com um desempenho abaixo da média.

A não ser que o desempenho do seu computador esteja abaixo da média, a indicação de muita memória RAM em uso não significa necessariamente que você precisa adicionar um ou dois novos pentes ao computador

A não ser que o desempenho do seu computador esteja abaixo da média, a indicação de muita memória RAM em uso não significa necessariamente que você precisa adicionar um ou dois novos pentes ao computador (Imagem: Reprodução)

8. Antivírus sempre protegerão o seu computador

Embora muita gente já saiba que os softwares antivírus são o último recurso para proteger o computador de uma praga virtual, ainda há quem confie cegamente nesse tipo de ferramenta e acredite que ela é infalível.

A verdade é que a própria Symantec já declarou que seu antivírus, o Norton Antivirus, um dos mais famosos do mundo, não consegue impedir inúmeros tipos de ciberataques. Pior, a maioria dos antivírus sequer protege os usuários dos chamados softwares invasivos, aqueles que são instalados silenciosamente junto com outros softwares e acabam comprometendo o desempenho geral do computador.

Para piorar ainda mais essa realidade, uma série de antivírus gratuitos agora estão trazendo consigo essas pragas, instalando-as sem o conhecimento do usuário. Dito isso, fica bastante claro que os antivírus não são as ferramentas mais confiáveis do mundo.

Mesmo com essa dolorosa verdade, você não deve deixar de lado o seu software antivírus favorito – pelo contrário. Contudo, tenha em mente que ele deve ser a sua última frente de segurança e que você precisa desenvolver hábitos seguros para manter seus arquivos e informações pessoais longe das mãos dos cibercriminosos. Nunca é demais lembrar que um usuário bem informado e precavido é mais eficaz do que muito software de segurança que existe por aí.

9. Desfragmentação manual e ferramentas pagas ajudam a melhorar o PC

Foi-se o tempo em que tínhamos que reservar um horário toda semana para executar a desfragmentação do HD. Atualmente, o usuário não precisa se preocupar com absolutamente nada relacionado a esse assunto, já que o Windows traz uma ferramenta de desfragmentação que faz o serviço automaticamente sem a necessidade de intervenção.

Há casos raríssimos em que o usuário pode querer instalar um jogo muito grande, como Grand Theft Auto V, e seja necessário executar a desfragmentação manual para garantir máximo desempenho. Contudo, esse é um caso bem isolado e específico e, via de regra, não há qualquer necessidade de executar essa rotina manualmente.

Ferramentas pagas que prometem melhorar o desempenho do HD também não valem a pena e surgem como um balde para você jogar dinheiro fora. Em muitos casos, o valor cobrado por softwares como o Diskeeper Professional pode ser usado para comprar um SSD, atualizar o computador e ganhar em desempenho. Portanto, não se preocupe com nada disso, deixe o Windows fazer o serviço dele e guarde o seu dinheiro para investir em algo realmente útil para o seu PC.

10. Limpar o cache melhora o desempenho do computador

Algumas aplicações têm o famoso cache, um conjunto de arquivos que são cópias offline de algo baixado anteriormente da internet. Esses arquivos são armazenados localmente no computador para que, no futuro, quando o conteúdo for acessado novamente não tenha que ser baixado todo da internet. Esse comportamento, como dá para perceber, se traduz em economia de tempo e largura de banda para o usuário.

Apesar disso, nem todo mundo vê o cache como algo bom e acaba baixando ferramentas que prometem livrar o HD desses arquivos temporários baixados da internet e armazenados no computador. A premissa é simples: são arquivos que você não usa (pelo menos não diretamente), logo podem ser excluídos para poupar espaço no disco rígido.

Embora pareça fazer sentido, essa prática força sobretudo os navegadores web a baixarem o conteúdo e o armazenar localmente mais uma vez, consumindo mais banda e gastando mais tempo para carregar as suas páginas mais acessadas. Sem contar que tudo se transforma num ciclo infinito, com você limpando o cache e ele sendo preenchido logo na sequência.

Limpezas no disco rígido nem sempre garantirão um melhor desempenho do computador. A eliminação de cache, por exemplo, apenas tornar a navegação na internet mais lenta e pesada

Limpezas no disco rígido nem sempre garantirão um melhor desempenho do computador. A eliminação de cache, por exemplo, apenas tornar a navegação na internet mais lenta e pesada (Imagem: Reprodução)

Você achava que algum desses mitos eram verdadeiros? Quais outros mitos sobre computadores você conhece? Conta para gente aqui embaixo, na caixa de comentários.
Fontes e Direitos Autorais: CanalTech.com.br – Por Sérgio Oliveira RSS | 21.07.2015 às 10h08

Cerca de 50 mi de PCs em todo o mundo estão infectados


São Paulo – Um em cada 20 computadores em todo o mundo está infectado com algum tipo de vírus, segundo informa uma pesquisa divulgada pela Kaspersky Lab.

Para chegar a este número, a Kaspersky realizou um estudo com 1 bilhão de computadores domésticos e de pequenas empresa.

O número de 50 milhões representa 5% dos PCs analisados e que possuem algum programa antivírus.

 

Quando considerada as máquinas sem antivírus, o número sobe para 13% dos computadores.

Segundo a Kaspersky, os países com mais computadores infectados são a Rússia, Ucrânia, Bielorússia, Cazaquistão e Turquia.

Entre os que possuem o menor índice de infecção, com menos de 3% de contaminação, estão Alemanha, Austria, e Suíça.

A Kaspersky afirma que o uso de soluções de segurança não garantem 100% de proteção, mas sem este tipo de programa a contaminação pode ser três vezes maior.

A empresa sugere que os usuários sempre utilizem software de segurança e os mantenham sempre atualizados.

Fontes e Direitos Autorais: 

, de INFO Online 

• Segunda-feira, 06 de maio de 2013 – 12h58.

Porque é a Lei de Moore, e não a mobilidade, que está “matando” o PC


Embora os rumores da morte do PC sejam um grande exagero – uma indústria que comercializou mais de 350 milhões de unidades em 2012 não está “morta” – não há dúvidas que que os computadores pessoais não vendem tão bem quanto antes. Os analistas ainda prevêem que as vendas de PCs irão exceder em muito as de tablets num futuro próximo, mas a taxa de crescimento nas vendas é praticamente nula. A grande pergunta é: porque?

Há algumas teorias nas quais a sabedoria popular se baseia. Muitos culpam a estagnação nas vendas de PCs em uma economia igualmente estagnada, ou apontam para a ascensão dos smartphones e tablets. Outros argumentam (de forma persuasiva) que o pouco crescimento pode ser atribuído às idiossincrasias do mercado de PCs nos países em desenvolvimento, onde os computadores são um item “de luxo” raramente substituído. Segundo os analistas, uma “segunda onda” de vendas ainda está por vir nestes países.

Assim como a maioria dos setores econômicos, o mercado de PCs é influenciado por uma enorme quantidade de fatores, e há um pouco de verdade em todas as três explicações. Mas entretanto, após observar minha sogra alegremente usando o Facebook e enviando e-mails em um PC de quase 10 anos com um processador Pentium 4, uma possibilidade mais insidiosa me veio à mente.

Será que o desempenho dos processadores atingiu um nível “bom o suficiente” para a maioria dos usuários alguns anos atrás? Seriam estas máquinas mais velhas ainda boas o bastante para completar as tarefas do dia-a-dia de uma pessoa comum, reduzindo o incentivo para um upgrade?

“Antigamente era necessário substituir o PC após alguns anos ou você ficaria muito para trás. Se não fizesse isso, não conseguira nem rodar as versões mais recentes de seus programas”, diz Linley Gwennap, principal analista do Linley Group, uma empresa de pesquisa focada em semicondutores e microprocessadores. “Agora você pode manter o mesmo PC por cinco, seis, sete anos sem problemas. Sim, ele pode ser um pouco lento, mas não o bastante para atrapalhar o uso diário”.

Processadores antigos ainda são o suficiente para o dia-a-dia

Isto pode ser um choque para os entusiastas que tentam tirar o máximo de desempenho de seus PCs, mas o cidadão comum quase nunca converte vídeos, e você não irá vê-lo disputando uma partida de Crysis 3. Em vez disso ele passa a maior parte do tempo em tarefas mais mundanas, geralmente centradas na web: compras online, envio de e-mails, contato com família e amigos em redes sociais, talvez um vídeo ocasional no YouTube – na resolução padrão, nada de HD – ou jogando algumas partidas de Paciência.

Em outras palavras, de forma alguma o tipo de atividade que pede um processador Intel Core i7 overclockado e refrigerado a água. Ou mesmo um dos modernos processadores Intel Core i3 da família Ivy Bridge, se formos honestos.

“Se você está apenas navegando na web, montando algumas planilhas aqui e editando alguns textos ali, não vai notar a diferença entre um processador mais antigo de 2.5 GHz e um modelo recente de 3 GHz”, diz Gwennap.

O PC Pentium 4 de minha sogra engasga um pouco (especialmente aos meus olhos), mas aguenta sem problemas tarefas como o uso básico na web e reprodução de vídeo em definição padrão. Mais ainda, a necessidade por chips sofisticadíssimos pode ser reduzida ainda mais à medida em que mais e mais tarefas que antes exigiam computadores poderosos fazem a transição para servidores na nuvem. Veja por exemplo o editor de imagens Pixlr, da AutoDesk, e a audaciosa iniciativa GeForce Grid da Nvidia, além de uma multidão de serviços de streaming de vídeo. Os Chromebooks estão se tornando populares por um motivo.

moore_borderlands2-360px.jpg
Apesar de todos os efeitos visuais, Borderlands 2 ainda
roda bem em máquinas com processadores Intel Core 2

Processadores Intel Core 2 Duo e Core 2 Quad foram lançados em 2006, e ainda tem bom desempenho mesmo que você esteja levando seu PC além das tarefas básicas na web. Gamers ainda podem jogar a maioria dos títulos modernos (como Borderlands 2 e Skyrim) com bom nível de detalhes e resolução HD em computadores com processadores Core 2. Testes recentes feitos por sites como o Tom’s HardwareOCAholic mostram que estes processadores ainda se comparam bem em relação a alguns modelos mais recentes da AMD e da família Intel Core. Processadores mais antigos da AMD, como o Phenom II X4 Black Edition de 3.4 GHz, lançado em 2009, também ainda “tem jogo”, de acordo com clientes satisfeitosno site especializado Newegg.

Há um motivo pra isso, diz Gwenapp. A Lei de Moore – pelo menos na forma em que geralmente é mencionada – se transformou na “Teoria Mais ou Menos Desprovada de Moore” nas últimas gerações de processadores.

“Acho que estamos aquém da lei de Moore desde que a Intel atingiu a Power Wall (ponto no qual não vale a pena aumentar o clock de um processador, porque o consumo de energia e calor gerado são excessivos) em 2005”, disse Gwenapp em uma entrevista por telefone. “Nesse ponto energia se tornou o fator limitante, não a tecnologia ou quantidade de transistores”. Os ganhos de desempenho foram reduzidos de forma ainda mais dramática depois que a Intel lançou os primeiros chips baseados na arquitetura Nehalem no final de 2008”.

A Lei de Moore dá de cara com a parede

Antes de entrarmos em mais detalhes, vamos recapitular alguns pontos: a Lei de Moore leva o nome do ex-CEO e co-fundador da Intel, que em 1965 previu que o número de transistores que poderiam ser colocados em um circuito integrado iria dobrar a cada dois anos. A maioria das pessoas cita uma versão modificada da lei, proferida por David House, um executivo da Intel, que alega que o poder de processamento dobra a cada 18 meses. Tecnicamente a Lei de Moore ainda se mantém. É a interpretação de House que tem deixado a desejar.

“O crescimento em desempenho dos processadores da Intel foi reduzido drasticamente”, escreveu Gwennap em uma coluna na newsletter Microprocessor Report em dezembro de 2012. “…mesmo levando em conta o modesto ganho com os novos processadores Sandy Bridge, o desempenho vem aumentando a uma taxa de apenas 10% ao ano entre os desktops e 16% ao ano entre os notebooks (entre 2009 e 2012), muito longe dos bons tempos de um crescimento anual de 60%”.

Em outras palavras, os processadores mais novos não são mais tão superiores aos seus antecessores. Para o usuário comum, que basicamente usa o Facebook, e-mail e iTunes, a diferença no dia-a-dia entre um processador Intel Core 2 e um modelo mais moderno é quase inexistente, não importa o que dizem os benchmarks.

“Certamente acredito que a redução no ganho de desempenho dos computadores é um grande fator [na redução das vendas]”, disse Gwenapp à PCWorld. “Talvez mais ainda que os tablets. Porque substituir seu PC se o novo modelo não é notavelmente mais rápido do que aquele que você comprou dois ou três anos atrás”?

O desempenho fica em segundo plano

Mas o argumento de que “os processadores são bons o suficiente” gera controvérsia. “Estou aqui há 20 anos, e naquela época as pessoas já diziam que um Pentium de 60 MHz com 1 MB de RAM e Windows 3.1 era ‘bom o suficiente’”, disse Dan Snyder, Gerente de PR, na Intel, à PCWorld via e-mail. A idéia do “bom o suficiente” circula desde sempre. Lembram-se do mito de que Bill Gates teria dito que 640 KB de RAM seriam o suficiente para qualquer um?

Mas desta vez há um detalhe: Snyder listou vários exemplos dos mais novos feitos tecnológicos da Intel – como processadores para tablets e gráficos integrados mais poderosos – e embora todos eles sejam realmente intrigantes por mérito próprio, nenhum envolve um salto no desempenho “bruto” do processador (e como poderia, com as limitações da Power Wall?).

Em vez disso, os processadores modernos focam na introdução de extras que agregam valor para complementar o ganho incremental anual de desempenho. Gráficos integrados melhoraram tremendamente nos últimos anos, especialmente nas APUs (Accelerated Processing Units) da AMD e na GPU Intel HD Graphics 4000 inclusa em alguns processadores da família Ivy Bridge. De fato, os gráficos integrados evoluíram ao ponto de serem capazes de oferecer experiências de jogo bastante aceitáveis, se você estiver disposto a reduzir o nível de detalhes gráficos no jogo.

A redução no consumo de energia é outro foco para os fabricantes de chips, e não apenas para aumentar a autonomia de bateria em tablets e notebooks. Os ganhos em energia e desempenho gráfico introduzidos nos processadores modernos podem na verdade ajudar a compensar os ganhos incrementais no desempenho do processador.

moore_amdtrinity-360px.jpg
Este esquemático da arquitetura AMD Trinity mostra a
importância da GPU. Compare o tamanho dela com o das CPUs!

“A Lei de Moore sempre foi sobre o custo dos transistores, mas também sobre o aumento no desempenho, já que com custo menor você seria capaz de colocar mais e mais deles no circuito”, disse Gary Silcott, Gerente Sênior de PR para as CPUs e APUs da AMD via e-mail. “À medida em que exploramos os limites físicos dos materiais, e o custo das fábricas sobe, em determinado ponto o custo dos transistores exige que você eleve o desempenho e amplie a autonomia de bateria no próprio design do chip. É por isso que a AMD migrou para o conceito de computação heterogênea em suas arquiteturas de APUs. Combinando diferentes tipos de processadores (CPUs e GPUs) em um mesmo “Sistema em um Chip” é possível atender à uma gama muito maior de cargas de trabalho, com GigaFLOPS de poder de processamento em uma área muito pequena e consumo de energia muito baixo”.

Isso significa o que parece? “Absolutamente”, disse ele quando perguntei se a AMD planejava focar a maior parte de seus esforços de desenvolvimento na melhoria da eficiência energética e na capacidade dos gráficos integrados, em vez de se concentrar apenas no desempenho do processador. “Esta questão é o cerne de tudo sobre o que estamos falando”.

Uma visão unificada, ao que parece, pode ser o futuro dos processadores. No ano passado a AMD, Qualcomm, ARM, Samsung, Texas Instruments e outros grandes fabricantes de chips criaram aHeterogenous System Architecture Foundation para “impulsionar uma única arquitetura para superar as limitações de programação das CPUs e GPUs atuais”. Em vez de derrubar a barreira do consumo de energia, a HSA Foundation pretende contorná-la usando técnicas de computação paralela.

Uma esperança

Mesmo que o desempenho bruto dos processadores não esteja se acelerando o suficiente para encorajar novas vendas de PCs, o trabalho da HSA Foundation aponta para um futuro brilhante tanto para o usuário comum quanto para os entusiastas. E mesmo que a visão titubeie nos detalhes – notavelmente a Nvidia e a Intel estão ausentes no grupo – os líderes na indústria estão trabalhando duro para desenvolver avanços nos processadores em si.

Tanto a Intel quando a AMD investem pesadamente em pesquisa e desenvolvimento para se manter “na crista da onda” da tecnologia. A Intel, em particular, tem reservados só para este ano US$ 18,2 bilhões – bilhões! – de dólares para pesquisa e aquisições, com planos para a produção de “wafers” (os discos de silício onde os processadores são produzidos) maiores e novas tecnologias de litografia que permitirão à empresa criar transistores cada vez menores nos próximos anos. O processo de 22 nanômetros da família Ivy Bridge é só o começo.

Enquanto isso a corrida da Intel rumo à computação ubíqua – controles por gestos, reconhecimento de fala e mais – não só avança os tradicionais modelos de interface, como também as tecnologias envolvidas geram demanda por mais poder de processamento. Espertos.

moore_haswell-360px.jpg
Durante a CES 2013 a Intel apresentou um conceito que ilustra
sua visão de um Ultrabook Híbrido com processador Haswell

A trégua temporária na ênfase no desempenho a qualquer custo é na verdade uma coisa boa para a indústria, por mais que meu coração geek doa quando digo isso. Encurralados contra a barreira no consumo de energia, a Intel e a AMD estiveram livres para inovar em outras áreas tecnológicas, o que lhes permitiu introduzir mudanças que alteram o próprio conceito de computadores como os conhecemos.

“Com Ultrabooks, Tablets e conversíveis sensíveis ao toque, a distinção entre os dispositivos móveis é cada vez menor”, disse Snyder, da Intel, e novamente ele está certo. Se a empresa não tivesse sido capaz de focar seus esforços na eficiência energética e desempenho gráfico, será que teríamos um aparelho que quebra paradigmas como o Microsoft Surface Pro? Aposto que não.

O lançamento da próxima geração de processadores da Intel, de codinome Haswell, promete inaugurar uma era de híbridos de tablet e notebook leves, sem ventiladores barulhentos, com o poder de processamento de um PC e baterias capazes de durar um dia inteiro. A próxima geração de APUs da AMD e tecnologias recentemente anunciadas como a Turbo Dock prometem o mesmo potencial, e jogos em 3D serão suportados em qualquer lugar.

O futuro é nesta direção. A ausência de ganhos estratosféricos de desempenho sem dúvida deixou muitas pessoas agarradas aos seus velhos PCs muito além do tradicional ciclo de atualizações, mas a “calmaria” também abriu portas que de outra forma teriam se mantido fechadas se a Intel e a AMD tivessem continuado a “pisar fundo” no desempenho do processador. Considere tudo isso como uma espécie de “retirada para reagrupar”, e não um sinal do fim do PC.

Fontes e Direitos Autorais: Brad Chacos, PCWorld EUA – 11-03-2013.

Transistor 4D pode ser o primeiro passo para os computadores do futuro


 

(Fonte da imagem: Shutterstock)

Mesmo com avanços tecnológicos proporcionando uma evolução constante em  componentes computacionais, essas peças apresentam um limite. Processadores,  hoje em dia feitos com silício, aos poucos começam a apresentar algumas  barreiras de desempenho que fizeram com que cientistas buscassem alternativas a  eles. Agora, surge um possível vislumbre do futuro dos computadores.

Os cientistas Jiangjiang Gu, da Universidade Purdue, e Xinwei Wang, da  Universidade de Harvard, criaram um transistor formado por três nanofios de um  material chamado arseneto de gálio e índio (InGaAs), montado como se fosse uma  árvore de Natal. A pesquisa se baseia em um projeto anterior que criava  transistores em 3D, em vez de planos.

Esse projeto permite que engenheiros possam criar circuitos integrados mais  rápidos, eficientes e compactos, assim como laptops mais leves e que geram menos  calor. A nova descoberta mostrou que ligar os transistores verticalmente em  paralelo aumenta o desempenho do eletrônico.

Segundo o coordenador da equipe, Dr. Peide Ye, empilhar os transistores  resulta em mais corrente e uma operação mais rápida. Isso tudo adiciona uma nova  dimensão e, por isso, os cientistas os chamam de “transistores 4D”.

Ainda é cedo para saber exatamente quando esses componentes serão utilizados  no mercado, mas processadores mais atuais já utilizam a tecnologia de  transistores 3D, provando que nos próximos anos deveremos ver a sua próxima  versão sendo utilizada na criação de novos computadores.

Fontes e Direitos Autorais: TecMundo.com – André  Luiz Pereira em 11  de Dezembro de  2012.

Lenovo investirá US$ 30 mi em fábrica no Estado de SP


Unidade com 325 mil m² ficará na cidade de Itú e irá manufaturar toda a linha de produtos da empresa

Rio de Janeiro  – A fabricante chinesa de computadores Lenovo investirá 30 milhões de dólares na construção de uma fábrica e de um centro de distribuição no Estado de São Paulo.

As instalações de 325 mil metros quadrados, localizadas na cidade de Itú, devem entrar em operação até dezembro de 2012, informou a empresa em comunicado nesta quinta-feira.

A fábrica produzirá uma “linha completa” de computadores comerciais e de consumo para os clientes no Brasil, permitindo à empresa “expandir significativamente o seu portfólio de produtos no Brasil e fortalecer a sua competitividade em preços, ao mesmo tempo em que minimizará o tempo de entrega dos produtos”, segundo a nota.

“O anúncio de hoje é a primeira etapa de um plano ousado e de longo prazo que compreende estratégias orgânicas e inorgânicas de crescimento, cujo objetivo é dobrar a nossa participação de mercado no Brasil”, afirmou o vice-presidente da Lenovo e recém-nomeado presidente das operações da empresa no país, Dan Stone.

Fontes e Direitos Autorais:  • Quinta-feira, 05 de julho de 2012 – 09h58.

Tchau, PC


Paulo Varella 

Poucas empresas podem dizer que ajudaram a moldar o mundo com tanta propriedade quanto a Microsoft. Com 36 anos de existência, ela embute seu sistema operacional em nove de cada dez computadores vendidos no mundo. À esteira desse sucesso, domina os principais softwares para PCs: Excel, PowerPoint, Internet Explorer, Word, Outlook. Trata-se de um virtual monopólio, cuja consequência é um valor de mercado de US$ 227 bilhões, com receita anual de US$ 70 bilhões e a maior taxa de dividendos do mundo da tecnologia, 2,36% por ação. Não à toa, seu fundador, Bill Gates, é o americano mais rico do mundo, com uma fortuna avaliada em US$ 59 bilhões.

Com tudo isso, a Microsoft perdeu o hype. Ficou para trás, na última década, nas principais tendências do século 21 – as buscas na internet (domínio do Google), as redes sociais (terreno de Facebook e Twitter), o comércio eletrônico (cujo campeão é a Amazon) e as plataformas móveis (território primeiro da Nokia e da RIM, tomado há alguns anos pela Apple). A percepção de que a Microsoft é uma empresa cheia de presente, mas com futuro duvidoso, torna suas ações incomodamente estáveis, num mercado (o tecnológico) em franca expansão. Chega a tal ponto o desdém pela Microsoft que a edição de novembro da revista Fast Company, especializada em negócios e inovação, lançou quatro capas diferentes, cada uma com um vencedor da “Grande Guerra da Tecnologia” – Apple, Facebook, Google e Amazon.

Alto lá, analistas e videntes.

Há algumas fortes razões para não descartar a Microsoft dessa guerra pelo futuro.

A primeira: a Microsoft tem dinheiro. Muito dinheiro. São US$ 50 bilhões em caixa. A qualquer momento ela pode comprar um atalho para a próxima grande tendência.

A segunda: esse atalho já pode ter sido encontrado. A Microsoft soube surpreender no extremamente competitivo mercado de games, lotado de inovações. O Kinect, lançado em 2010, representou uma revolução.

A terceira: o Kinect não impulsiona apenas uma divisão de entretenimento que cresce estrondosos 60% ao ano. Ele representa a infância de uma nova interface entre homens e máquinas. É um sistema que pode contaminar tudo o que fazemos.

Quer mais futuro que isso?

Por trás desse futuro está uma das mentes mais brilhantes do mundo da tecnologia atual, o brasileiro Alex Kipman. A seguir, a história do seu sucesso – e, mais importante, dos seus planos.

Estamos em novembro de 2010, em um laboratório na sede da Microsoft, em Redmond, nos arredores de Seattle. Uma placa pendurada na porta do local recomenda (ou ameaça?): Embrace change (“Abrace a mudança”). O momento é de descontração. Um soldado do Exército americano é aguardado ali para testar o sistema de sensores do Kinect, o aparelhinho que, usado no console de jogos Xbox 360, capta movimentos e os transforma em comandos para computadores. Mas bastou o convidado pôr os pés no local para que o clima festivo desandasse. O militar não tinha o braço direito. Ele o havia perdido em combate. E aquela constatação criou um baita impasse. Como uma pessoa sem uma parte do corpo poderia usar uma ferramenta concebida para funcionar com seres humanos com um formato padrão? Pior. O soldado era destro. E queria jogar pingue-pongue.

   Divulgação

O Kinect emite raios infravermelhos para iluminar o ambiente. Ele identifica as pessoas, independentemente da quantidade de luz natural

Alex Kipman, o pai do brinquedinho, preparava-se para o desastre. Natural de Curitiba, no Paraná, ele criou os algoritmos que deram vida ao Kinect. Naquele momento, tinha certeza do fracasso do aparelho. Tenso como a corda de um violino prestes a estourar, posicionou-se na frente da tela de comando do sistema. Dali, podia observar como os sensores do equipamento “liam” o corpo do militar. Espantou-se quando – de repente – a máquina começou a completar a silhueta do soldado. Ela percebeu a ausência do braço e produziu outro, virtual. Depois, colocou uma raquete (eletrônica) em uma mão direita (igualmente eletrônica). Fez tudo isso sozinha, sem receber nenhuma ordem ou comando adicional. Kipman sorriu e soltou um enigmático “ahã!”. O convidado iniciou o jogo, mas foi obrigado a fazer uma pausa após os primeiros pontos disputados. Sentou-se e chorou feito um bebê. Não acreditava que o Kinect lhe tinha devolvido o braço. Não só ele. Ninguém na sala acreditava.

A única explicação para o fenômeno estava contida no “ahã!” de Kipman. Eis a sua tradução: o sistema desenvolvido pelo brasileiro usa uma lógica peculiar. Hoje, os computadores são programados para executar tarefas predeterminadas. Aperte a tecla “x” e a letra aparecerá no monitor. Pronto. A relação é de causa e efeito. O programa não faz distinção entre a agudeza de um “i” e a sinuosidade de um “s”. Executa, apenas. A máquina de Kipman é diferente. Ela foi concebida para aprender. Usa sensores com raios infravermelhos para identificar informações relevantes em um ambiente. Um corpo, por exemplo. E consegue aceitar variações dentro desse tema. “Não importa se as pessoas são gordas ou magras, baixas ou altas, crianças ou adultos”, diz Kipman. “Todas podem brincar. O Kinect tem certa flexibilidade para interpretar o mundo. Faz com que a máquina nos entenda. É isso que o torna tão especial.”

  Ele desbancou o iPhone

Essas propriedades têm feito um bem danado para a Microsoft. A começar pelo cofre. O acessório do Xbox foi lançado em novembro do ano passado. Entrou para o livro dos recordes como o eletrônico mais vendido em menor tempo da história – nessa corrida, bateu ícones das prateleiras como iPods, iPhones e iPads. Emplacou 8 milhões de unidades em dois meses, mais de 130 mil maquininhas por dia. No fim do último ano fiscal nos Estados Unidos, encerrado em julho, a Microsoft reportou um lucro líquido de US$ 23,1 bilhões, com alta de 23% em relação ao período anterior. O resultado foi fortemente impulsionado pela dupla Kinect-Xbox. Ela foi responsável pelo crescimento de 30% da receita da divisão de entretenimento, a área da companhia que apresentou o avanço mais robusto entre todos os departamentos.

Se fosse só isso, já seria um impacto de dar inveja em qualquer empresa. Mas não é. O Kinect está fazendo com a Microsoft o que fez com o militar que o testou. Até o ano passado, dizia-se que a Microsoft tinha perdido suas asas – a capacidade de sobrevoar o mercado e vislumbrar o mundo do futuro. Da sala de Kipman, o Kinect está desenhando novas asas para a empresa. A prova disso veio em julho, quando a Microsoft liberou parte do código do sistema de sensores para os desenvolvedores de softwares (os hackers). A decisão foi comemorada entre os nerds e gerou dezenas de novas aplicações para o equipamento. A maior parte dessas ideias parece ter sido extraída de um roteiro de ficção, e várias apontam para uma revolução. Bastam cinco exemplos:

1 Médicos no Canadá usam o Kinect para consultar em um monitor, com gestos e comandos de voz, os exames de pacientes dentro de centros cirúrgicos. Com isso, não tocam nos arquivos e não comprometem a esterilização das mãos.

   Divulgação

O médico canadense Calvin Law gesticula para ver os exames de um paciente em uma TV, durante cirurgia

2 A Mastercard testa um sistema de compras pela TV com base nos sensores da Microsoft. Os usuários gesticulam no ar, como personagens do filme Minority Report, e as opções de produtos e as formas de pagamento se sucedem na tela.

3 Na Universidade de Konstanz, na Alemanha, o produto foi usado para orientar um cego a andar. Instalado em um capacete, ele identificava as barreiras do trajeto e repassava informações verbais para o deficiente visual.

   Divulgação

Acoplado a um capacete, o Kinect guia um pesquisador: o sistema pode ser usado por deficientes visuais

4 Estudantes da Universidade da Califórnia, em San Diego, transformaram o aparelho em um escâner gigante. Eles gravaram em 3D detalhes de um sítio arqueológico na Jordânia. Tal recurso ajuda a organizar as buscas e cria um arquivo das escavações.

5 O Kinect também é usado em atividades socioeducacionais. Elas incluem métodos interativos de ensino de inglês para comunidades carentes na África do Sul e jogos para crianças autistas (elas conseguem brincar com o aparelho, que não exige o uso de intrincados joysticks e controles cheios de botões).

Interface natural

Por ser simples de usar, o sistema de sensores também é uma peça-chave nos próximos movimentos da Microsoft na disputa por vários segmentos de mercado. Ele é a nascente, testada e aprovada pelo público, de uma interface natural entre homens e máquinas. Essa é uma meta almejada há pelo menos duas décadas pela companhia – que só agora pôde sair do papel. Detalhes dessa estratégia foram fornecidos em agosto, em um texto intitulado The future of the living room (“O futuro da sala de estar”), publicado no blog do vice-presidente de comunicação da companhia, Frank X. Shaw.

   Divulgação

Os serviços de vídeo
sob demanda pela internet, como Netflix e Hulu, também estão chegando aos consumidores por meio de smartphones

No texto, Shaw sustenta que estamos no meio de uma nova onda tecnológica. Usa o termo “avalanche” para definir o aumento do conteúdo digital acessível pela televisão. “Ele inclui shows, programas esportivos, filmes, vídeos, games, música e muito mais.” Paralelamente, aumentam as fontes de distribuição desse material: TV aberta, a cabo, serviços sob demanda (Netflix e Hulu, por exemplo) e a internet como um todo.

O objetivo da Microsoft é se transformar na principal fonte de acesso dentro de casa dessa cornucópia do entretenimento. O console Xbox pode servir de porta de entrada do conteúdo. Ele é o hardware, o computador. O Bing, o serviço de buscas da empresa, pesquisa e organiza todo esse material. O Kinect, com sua capacidade de entender gestos e comandos de voz, é a interface que une tudo. “Imaginamos um futuro em que a frase ‘ei, onde está o controle remoto’ soe tão ultrapassada como um telefone de disco”, afirma Shaw.

  O futuro no presente

Essa não é uma visão do futuro. Não funciona a pleno vapor, mas está em uso comercial nos Estados Unidos e em alguns países da Europa. Em outubro, a Microsoft lançou o Xbox Live, um serviço online com 40 emissoras internacionais de televisão. O Live também abriga a maior rede social paga do mundo (custa R$ 89 por ano no Brasil), com 35 milhões de pessoas que compartilham jogos pela web. A empresa também fechou acordos com a Netflix e a Hulu para a distribuição de filmes, shows e seriados. Integrou a esse sistema o Zune Marketplace, uma versão Microsoft do iTunes, da Apple, onde podem ser compradas músicas e baixados diversos aplicativos.

As pesquisas nesse pacotão digital podem ser feitas por comandos de voz (a tecnologia chama-se Tellme), uma das habilidades do Kinect. Basta pedir: “Xbox, Bing X-Men”. O sistema apresenta todas as opções de filmes, músicas, jogos e fotos relacionados a esse título. O recurso funciona em inglês, ainda não está disponível em português. Para completar, todo esse complexo de entretenimento pode ser armazenado fora do Xbox. Ele pode ser guardado em data centers da Microsoft, que, conectados pela internet, formam a nuvem de computadores da empresa.

   Divulgação 

Os sensores desenvolvidos por Kipman, atual diretor de incubação de produtos de entretenimento, também ocupam a sala de estar de uma maneira surpreendente. A Microsoft apresentou em julho um novo modelo de avatar, feito com base na tecnologia do Kinect. Funciona de forma similar ao game. O usuário fica na frente do aparelho e seu clone, um bonequinho estilizado, aparece na tela da TV. O detalhe é que o avatar reproduz, em tempo real, todos os diálogos e as alterações na expressão facial da pessoa. Registra sutilezas como esboços de sorrisos ou o movimento das sobrancelhas. Esses avatares têm uma função específica: devem integrar os usuários do sistema Xbox-Kinect-Bing. Assim, é possível reunir grupos de amigos, cada qual com seu avatar, em um ambiente virtual para compartilhar filmes, trocar opiniões, assistir a jogos de futebol em turma. Parece bacana? Pois é só o começo.

Uma nova trincheira

Com todas essas ferramentas, tendo como uma das principais chaves o Kinect, a Microsoft quer transformar nossas salas de estar em uma trincheira para combater seus oponentes nos negócios de tecnologia. Isso vale tanto para o campo das pesquisas online, liderado pelo Google, como para as tendências tecnológicas, capitaneadas pela Apple. E essa é uma tarefa tão urgente como difícil. Desde que o Google tornou-se uma empresa aberta, em agosto de 2004, o valor de suas ações multiplicou por mais de seis. No mesmo período, as da Microsoft caíram 2%. Desde que a Apple lançou o primeiro iPhone, em julho de 2007, o valor de seus papéis triplicou. Os da Microsoft, em prazo semelhante, recuaram 10%.

Isso não quer dizer que os velhos negócios devem ficar à míngua nos próximos anos. O Windows é (e continuará por um bom tempo) a ser o grande lastro econômico da companhia. Se a Apple vendeu 28 milhões de iPads desde o lançamento do produto, a Microsoft vendeu 450 milhões de cópias apenas do Windows 7. O sistema operacional é ainda o principal responsável pelos dividendos pagos aos acionistas. Nesse quesito a Microsoft é imbatível, mesmo se comparada a marcas como Google, Apple, HP ou IBM.

A nova versão do produto, o Windows 8, deve ser lançada em meados de 2012. O software foi desenhado para rodar tanto em PCs como em tablets. Suas funções podem ser acionadas por meio dos tradicionais ícones e por toques na tela do computador. Ele também vai incorporar novos recursos, parecidos com os do Kinect, como o reconhecimento facial dos usuários. “Cada vez mais as pessoas vão ver surgir novos produtos da Microsoft”, diz Kipman. “E eles todos estarão crescentemente integrados.”

A Microsoft pagou US$ 8,5 bi
pelo Skype, em maio. Serviços de telefonia
pela internet devem ser incorporados
em breve aos principais produtos
da empresa

 

   Divulgação

Bill Gates, o fundador da Microsoft, sempre que visita a sede da empresa, em Seattle, passa pelo laboratório de Alex Kipman. “Ele gosta de ver e conversar sobre as novidades nas quais estamos trabalhando”, diz

Siri esperto

O Kinect também presta um serviço de atualização à empresa de Redmond. Ele a coloca de frente para o gol na disputa por aplicações que usam recursos de inteligência artificial. A Apple também está mostrando suas garras nesse campo. A empresa incorporou à quinta geração do iPhone, o modelo 4S, lançado no mês passado, um programa que responde a perguntas do usuário, tanto por meio da fala como de textos. É o Siri. Ele fornece qualquer tipo de informação, como endereços de restaurantes ou consultas pela internet. Se você quiser saber quem é o presidente do Irã, pergunte ao Siri. O sistema nem sempre acerta de primeira, mas, como no Kinect, ele aprende e melhora seu desempenho com o tempo. O Android, do Google, usa ferramenta similar.

No futuro não muito distante, dispositivos eletrônicos como o Kinect e softwares similares ao Siri serão cruciais para nos ajudar a lidar com a tecnologia. O número e a variedade de aparelhos eletrônicos tendem a se multiplicar. A empresa de tecnologia Cisco estima que existem atualmente 7,5 bilhões de aparelhos eletrônicos conectados à internet. São computadores, notebooks, smartphones e tablets. Em 2015, eles somarão 15 bilhões. É o dobro, em apenas quatro anos. Para atingir esse número, a web deve incorporar carros, lâmpadas e até torradeiras. Termos como computação pervasiva ou ubíqua, em que tudo se transforma em computador, vêm sendo difundidos nos últimos anos para definir tal cenário. (Bill Gates, o fundador da Microsoft, há mais de uma década fala desse mundo em que tudo se conecta e se comunica.) Os gestos e a voz serão decisivos para controlar essa parafernália alucinante. “Não tenho dúvida de que o sistema do Kinect estará lá, no futuro, revolucionando a forma como lidamos com a tecnologia”, afirma Alex Kipman. Não duvide.

Fontes e Direitos Autorais: Revista Época Negócios – Notícias – Carlos Rydlewski – Reportagem / Visão 03/11/2011

 

O PC faz 30 anos. Mas já é um ancião


O IBM PC 5150

//

São Paulo — Os dias do computador pessoal estão contados, garante Mark Dean, designer da IBM que trabalhou no projeto do primeiro PC, o modelo 5150, lançado em 12 de agosto de 1981.

A afirmação foi publicada no blog oficial do designer como uma forma de homenagem pelos 30 anos do dispositivo. “Os PCs estão indo na mesma direção da máquina de escrever, dos discos de vinil e das lâmpadas incandescentes”, comparou Dean.

Ele reconhece a importância histórica dos PCs, responsáveis pela criação de um ambiente propício para a nova geração de dispositivos, mas afirma que o sistema será substituído por um centro de computação e não por um novo aparelho.

As grandes inovações, destaca o designer, estão surgindo em espaços sociais. Segundo o especialista, os PCs continuarão sendo utilizados pelas pessoas, mas não reconquistarão o espaço de líder na vanguarda da computação.

Em 1981, a IBM lançou o IBM PC 5150, que se tornou referência de mercado. Dean continua sendo dono de um terço de suas patentes, mas admite que o conceito do computador pessoal está ultrapassado. Em seu post, o designer revela: “Troquei meu PC por um tablet.”

O vice-presidente de comunicação corporativa da Microsoft, Frank Shaw, também utilizou o blog de sua companhia para registrar o trigésimo aniversário dos PCs.

Ele afirmou que a disseminação de novos dispositivos, associados à tecnologia da informática, marca o início de uma fase nova era, chamada PC-Plus.

Fontes e Direitos Autorais: Veja.com • Sábado, 13 de agosto de 2011 – 10h03.

Mundo terá 15 bilhões de aparelhos conectados a web até 2015


Cerca de 15 bilhões de equipamentos –de computadores a geladeiras– estarão conectados à internet até 2015, num movimento de expansão da conectividade que desafia a infraestrutura mundial da indústria de tecnologia.

Os números foram apresentados por Krig Skaugen, vice-presidente da Intel, ontem em Las Vegas, durante evento promovido pela HP para debater inovações em tecnologia e apresentar produtos ao mercado corporativo.

Segundo Skaugen, o volume é ainda mais surpreendente quando se observa o potencial de conectividade da “internet das coisas” ao longo dos próximos anos. Até 2020, o número será de 50 bilhões de máquinas, que terão seu próprio número IP e serão capazes de se conectar com outros equipamentos e interagir com pessoas, no movimento da real automação residencial e corporativa.

“A indústria ainda não está preparada para suportar esse crescimento. Na última década o mundo tinha 40 milhões de servidores e achava que a conexão estava garantida, mas não estamos nem perto de ter infraestrutura básica para suportar o que virá”, disse o executivo.

Os gargalos, segundo Skaugen, passam por capacidade de servidores, capazes de processar o tráfego de internet gerado pelos novos aparelhos e também pelo consumo de energia que eles vão demandar.

Nos últimos dois anos, o tráfego de dados da internet cresceu exponencialmente. Em 2010, foram trafegados 245 exabytes de dados na internet (o equivalente a cerca de 65 milhões de DVDs), mais do que o volume circulado em toda a história da rede.

Ao mesmo tempo, crescem os custos para ampliar a infraestrutura de armazenamento. Os US$ 58 mil que eram a média de gastos com capacidade de servidor em 2000 passaram para US$ 138 mil no ano passado.

“Para abastecer todos os novos servidores e suportar a estrutura que existirá em 2015 seriam necessárias pelo menos 45 novas plantas de geração de energia a carvão”, afirmou o executivo.

Ainda de acordo com Skaugen, atualmente 2% dos servidores do mundo já correspondem a US$ 15 bilhões gastos por ano só com energia.

NUVEM

Diante dos números, os desafios atuais dos fabricantes de equipamentos –de servidores a computadores– estão em criar produtos mais eficientes em consumo de energia e aproveitar novas tecnologias, como a de computação em nuvem, para responder à necessidade de conexão dos novos dispositivos.

“A computação em nuvem é um dos elementos que podem transformar a economia e que podem contribuir para conectar a próxima onda de cerca de 1 bilhão de pessoas à internet”, disse.

Para a indústria de tecnologia, os sistemas e serviços de computação em nuvem representam um filão importante de recursos.

Estima-se que o modelo –que prevê o processamento central de aplicações e software em servidores espalhados pelo mundo, em vez da instalação em máquinas específicas– movimentará cerca de US$ 40 bilhões neste ano, com potencial para atingir US$ 121 bilhão em quatro anos.

A jornalista CAMILA FUSCO viajou a convite da HP Brasil.

Fontes e Direitos Autorais: Folha.com – Mercado – 07/06/201107h58, CAMILA FUSCO.