sexta-feira, 30 de novembro de 2012

Xbox 720 chegará às prateleiras para as vendas de Natal em 2013, apontam rumores

Informação teria sido passada por pessoas cientes dos planos da Microsoft quanto ao novo console.


Xbox 720 chegará às prateleiras para as vendas de Natal em 2013, apontam rumores

Depois de anunciar que o Xbox 360 atingiu a surpreendente quantia de 750 mil unidades vendidas no último final de semana da Black Friday — quantidade que superou até mesmo as expectativas da empresa —, a Microsoft estaria planejando a venda da nova geração do console para o mesmo período do ano que vem.

Comumente apelidado de Xbox 720 (além de possuir, segundo rumores, o codinome Durango), o novo console está previsto para as vendas de Ação de Graças e Natal de 2013. Tal informação foi passada ao site Bloomberg por pessoas próximas aos planos da Microsoft, e o boato já está sendo amplamente divulgado na internet.

Segundo o site, as pessoas que vazaram os planos quanto à época de lançamento do novo Xbox não quiseram ser identificadas porque as informações do produto são confidenciais. Ainda de acordo com os rumores, a Microsoft não decidiu se vai revelar o Xbox 720 em um evento do setor — como a E3, prevista para junho — ou em um evento separado e dedicado exclusivamente à máquina.

Os boatos de lançamento do novo console da Microsoft não são recentes e acompanham os rumores de que a Sony também poderá lançar a próxima geração do PlayStation em 2013.

Leia mais em: http://www.tecmundo.com.br/rumor/33439-xbox-720-chegara-as-prateleiras-para-as-vendas-de-natal-em-2013-apontam-rumores.htm#ixzz2DjdBYQPF

Gestos, holografia e tudo mais que existirá no próximo sistema operacional da Microsoft.


Gestos, holografia e tudo mais que existirá no próximo sistema operacional da Microsoft.



Erro 404: o Baixaki revela o Windows 9
Atenção: este artigo contém GIFs animados que podem demorar para serem carregados.
No dia 26 de outubro, a Microsoft finalmente colocou o Windows 8 no mercado. Isso aconteceu três anos após o lançamento do Windows 7, mas os primeiros rumores sobre esse sistema operacional já haviam começado muito antes. E, agora, o mesmo pode ser feito com o Windows 9, pois já começamos a receber algumas informações de nossas fontes secretas ligadas à Microsoft.
Mas o que será que teremos de revolucionário na próxima versão do sistema operacional? Você ficará sabendo de tudo logo em seguida, mas antes é preciso dizer que todos os recursos mostrados já estão sendo testados nos laboratórios de Redmond. Vale dizer também que, como se tratam de testes iniciais, é bem comum que erros estejam ocorrendo. Como será que estão os testes?

Controlando apps pela retina

Já pensou como seria mais fácil se você pudesse abrir algum aplicativo sem precisar clicar sobre atalhos ou utilizar teclas do teclado? Pois os primeiros testes do Windows 9 foram realizados com um novo mecanismo capaz de identificar a movimentação dos usuários e interpretá-la como comandos enviados para o computador.
Erro 404: o Baixaki revela o Windows 9
(Fonte da imagem: Baixaki/Tecmundo)
Por exemplo, quando alguém quiser abrir o Microsoft Word, bastará desenhar um “W” com a cabeça, sempre se lembrando de olhar para a câmera que funciona como um sensor dos movimentos. Ainda são necessários muitos ajustes para que os sistemas funcionem do modo como é esperado, pois algumas falhas ainda estão ocorrendo com certa frequência.
Em um total de 45 testes com usuários diferentes, 58% resultaram em torcicolos muito fortes nas pessoas, 12% resultaram em brincos perdidos e os outros 30% não conseguiram entender a proposta. Quanto ao funcionamento do modo de reconhecimento de movimentos, a eficiência ainda está abaixo do que se esperava — sem revelações mais concretas até o momento.

Interface 3D

Quem utiliza o Ubuntu já sabe bem como é o funcionamento deste tipo de sistema, mas os fãs do Windows terão que esperar até a chegada do Windows 9 para isso. Estamos falando de interfaces tridimensionais, que permitem a utilização de múltiplas áreas de trabalho e uma grande quantidade de janelas abertas ao mesmo tempo. Parece incrível, não?
Erro 404: o Baixaki revela o Windows 9
(Fonte da imagem: Baixaki/Tecmundo)
Seria, não fosse aquele velho problema de sempre: as pessoas demoram para se acostumar com coisas novas. Em um primeiro momento, todos os que testaram a nova tecnologia se empolgaram com a possibilidade de abrir 25 aplicativos ao mesmo tempo e deixar um navegador aberto em cada face do sistema operacional — podem ser configuradas até 8 faces.
Mas a euforia acaba prejudicando o sistema. Além de fazer com que os usuários realmente se perdessem em meio a tantas telas e opções, também foi bem comum ver computadores explodindo por causa da sobrecarga de tarefas e processadores derretendo em instantes pelo mesmo motivo.

Holografia tátil

Tente se lembrar dos filmes do Homem de Ferro e das cenas em que Tony Stark estava “brincando” com peças holográficas para desenvolver seus projetos. Pois o Windows 9 terá algumas funções bem parecidas. Isso mesmo, com o próximo grande lançamento da Microsoft será possível jogar paciência de um modo muito mais interativo, além de o SO oferecer uma série de outras possibilidades.
Erro 404: o Baixaki revela o Windows 9
(Fonte da imagem: Baixaki/Tecmundo)
Escritores poderão amassar suas folhas virtualmente e jogá-las em um lixo digital quando não gostarem de seus textos. Arquitetos terão muito mais realismo na hora de utilizar seus compassos na holografia de seus computadores — além de poderem andar por dentro de seus projetos. E isso é só o começo, pois muito ainda pode existir.
Mas é claro, ainda estamos falando de algo muito inicial. Por enquanto, o mais perto que os engenheiros de software chegaram da holografia tátil foi a projeção de imagens em locais pouco usuais. OK, sejamos sinceros. Tudo o que aconteceu até agora foi uma simulação de barriga dos Teletubbies.

Ecossistema vivo

Com o Windows 8, a Microsoft está tentando criar um ecossistema mais completo, colocando smartphone, computador e nuvens em uma única estrutura para os consumidores. Mas no Windows 9 isso vai ficar ainda mais completo. A empresa de Redmond tem planos para fazer com que casas inteiras sejam equipadas com o sistema operacional — até geladeiras e máquinas de lavar.
Erro 404: o Baixaki revela o Windows 9
(Fonte da imagem: Baixaki/Tecmundo)
Uma casa-modelo está em fase de testes nos Estados Unidos, sendo que todos os eletrônicos e eletrodomésticos são operados pelo Windows 9. Nos últimos testes, os engenheiros da Microsoft conseguiram fazer com que um celular pudesse controlar uma lava-louças, todo o sistema de som e também uma dúzia de luzes de Natal com apenas um app.
Infelizmente não é possível saber se há mais avanços nesse campo, pois os últimos funcionários da Microsoft que entraram na casa-modelo nunca mais saíram. Não que eles tenham morrido ou algo parecido, mas é que a casa acabou convencendo todos a ficarem lá dentro. Os engenheiros agora precisam reprogramar o Windows 9 para que ele não domine a mente dos usuários.
.....
Atenção: este artigo faz parte do quadro "Erro 404", publicado semanalmente no Baixaki e Tecmundo com o objetivo de trazer um texto divertido aos leitores do site. Algumas das informações publicadas aqui são fictícias, ou seja, não correspondem à realidade.


Leia mais em: http://www.tecmundo.com.br/erro-404/33407-erro-404-o-baixaki-revela-o-windows-9.htm#ixzz2DjcZeCZG

quinta-feira, 29 de novembro de 2012

Clock x Latência: qual fator tem mais importância na performance da memória RAM

Entenda a real importância de cada característica e qual o impacto causado na hora de executar games e outros softwares.



Normalmente, quando vamos comprar novos módulos de memória RAM, ficamos nos perguntando se é realmente necessário investir em um produto mais caro. Alguns sempre partem do pressuposto de que o componente de maior valor é também o mais veloz.
Entretanto, julgando pelas especificações técnicas, dois fatores podem ser considerados como os principais diferenciadores de desempenho. O primeiro é a frequência, característica mais observada na hora da aquisição. O outro é a latência, números que muitas vezes são ignorados, visto que são determinantes que operam na ordem dos nanossegundos.


Clock x Latência: qual fator tem mais importância na performance da memória RAM 
Pensando nisso tudo, buscamos informações diversas para investigar qual fator tem mais importância e se módulos mais avançados fazem grande diferença para quem vai usar o computador para tarefas básicas. Se você também tem essa dúvida, acompanhe nosso artigo.

Trabalhando com clocks mais elevados

Antes de falarmos especificamente em benefícios, vale citar como os computadores podem trabalhar com memórias de alta frequência, visto que os processadores não aceitam tais clocks. Para exemplificar, vamos falar da série de chips Intel Sandy Bridge.
Clock x Latência: qual fator tem mais importância na performance da memória RAM 
Oficialmente, os processadores Intel Core da antiga geração suportavam memórias de até 1.333 MHz. Entretanto, na época que tais processadores ainda estavam no topo, diversas fabricantes ofertavam placas-mãe que suportavam módulos de 2.133 MHz.
Pois é, essa discrepância existe porque as CPUs têm seus próprios controladores de memória e, na teoria, trabalhavam com módulos de até 1.333 MHz. Todavia, para driblar essa limitação, as fabricantes de placa-mãe investem em multiplicadores que permitem aumentar a velocidade geral da máquina.

Melhorias notáveis

Para quem trabalha com aplicativos mais pesados, as memórias com clocks elevados podem, em teoria, fazer muita diferença. A lógica é simples: quanto maior a frequência, maior será a largura de banda da memória e, portanto, mais dados serão transmitidos, o que gera uma melhoria geral no funcionamento da máquina.
Clock x Latência: qual fator tem mais importância na performance da memória RAM
Na prática, os benefícios nem sempre são visíveis, afinal não vemos esses gigabytes sendo transferidos de um lado para o outro. Em vez disso, os softwares são configurados para exibir estimativas de tempo para executar determinadas tarefas. Assim, fica muito difícil notar as diferenças entre módulos que conseguem ler 19 GB/s e outros que leem 18 GB/s.
Aliás, falando em leitura, entra aqui outro fator determinante na performance. As memórias não trabalham sempre na “velocidade” máxima, pois para cada tarefa os chips vão atuar de uma forma específica e devem apresentar resultados diferentes. Assim, há diferenças nas larguras de banda de leitura, escrita e cópia.
Analisando o gerenciamento de memória dos processadores Sandy Bridge, o site AnandTech criou uma série de gráficos para mostrar a variação entre diversas combinações de memória.
Os primeiros testes foram realizados com o programa AIDA64. Esse é um software específico para benchmarks, portanto os resultados apresentados não são de grande valia para quem busca informações de desempenho para o cotidiano. Apesar disso, o aplicativo usado tem importância em análises, visto que ele testa e indica até as mínimas diferenças.
Clock x Latência: qual fator tem mais importância na performance da memória RAM 
Em todos os testes iniciais, a ordem de desempenho ficou primeiramente por conta do clock, para depois ser ordenada de acordo com a latência. Isso quer dizer que, na teoria, o clock tem maior importância para o funcionamento da memória. Entretanto, tal resultado não é uma resposta válida em quaisquer aplicativos e jogos. Vamos aprofundar o estudo.

Latências menores fazem grande diferença

Apesar de a frequência ser um fator importante para o funcionamento da memória, a latência também tem sua importância. Basicamente, quanto menor for a latência, menor será o tempo necessário para que um dado trafegue de um lugar para outro.
Nos diversos testes da AnandTech, as latências mostraram importâncias diferentes para cada atividade. Analisando os resultados do Linpack e do PCMark, podemos perceber que as memórias com latências mais baixas podem sim ajudar a melhorar o desempenho.
Clock x Latência: qual fator tem mais importância na performance da memória RAM 
Esses softwares são interessantes, pois eles avaliam o desempenho geral da máquina. Dessa forma, os resultados acima refletem claramente a diferença que cada memória faz na performance geral do PC.
Nos testes com o 3DMark, as memórias com latências mais baixas se saíram bem no quesito gráfico, mas os componentes com clocks mais elevados dominaram na maior parte das verificações. As diferenças não são gritantes e é preciso levar em consideração que este programa serve apenas para benchmarks.

Contrariando quaisquer expectativas

Para finalizar a discussão, nos resta falar sobre a aplicação prática em jogos e programas. A AnandTech testou apenas dois games e eles servem para causar muita confusão. Em Crysis: Warhead, até mesmo módulos com clock de 1.333 MHz (mas latências bem baixas) resultaram em pequenas vantagens sobre as peças que trabalham na frequência de 2.133 MHz.
Clock x Latência: qual fator tem mais importância na performance da memória RAM 
Já no jogo Metro 2033, o componente com o clock mais alto levou a melhor. Apesar disso, os equipamentos com baixas latências ficaram posicionados logo em seguida. O curioso é que não há uma ordem bem específica nesse game. Moral da história? Cada jogo pode aproveitar determinado fator de forma diferente, portanto nem sempre o clock mais elevado é melhor.
Quando os componentes foram testados com o 7-Zip e a codificação de arquivos multimídia, os resultados também não seguiram uma lógica. No caso do programa de compactação, as memórias com clock elevado levam a melhor na hora de comprimir, mas perdem na hora de extrair arquivos. Já na codificação de vídeos, frequências mais altas são melhores.

Moral da história...

Depois de tantos testes, fica claro que memórias com frequências elevadas apresentam melhores resultados. Entretanto, levando em consideração a arquitetura Sandy Bridge, os componentes com clocks mais altos não são tão superiores. Pode ser que, com o uso de chips AMD, esse quadro seja diferente e elas apresentam melhoras significativas.
Clock x Latência: qual fator tem mais importância na performance da memória RAM 
Assim, na hora de comprar, vale sempre optar por peças com clock mais altos do que latências mais baixas. Contudo, antes de sair comprando, pense que até mesmo módulos com frequência de 1.600 MHz devem oferecer bons resultados para jogos e aplicativos comuns. Aliás, atualmente, esses componentes têm ótima relação custo-benefício.
Se você tem dinheiro para adquirir peças que vão resultar em alta performance, vale investir em módulos com clock de 2.133 ou até 2.400 MHz e ainda optar por peças com baixas latências. Entretanto, fique ligado se sua placa-mãe oferece suporte para os itens que você vai comprar.


Leia mais em: http://www.tecmundo.com.br/memoria-ram/33413-clock-x-latencia-qual-fator-tem-mais-importancia-na-performance-da-memoria-ram.htm#ixzz2Df1qtY6O

Novos drivers da NVIDIA preparam o terreno para Far Cry 3


Versão 310.64 traz as mesmas melhorias das anteriores — incluindo a utilização de mais de uma GPU no game —, garantindo ainda um ganho de até 37,6% em performance.


Novos drivers da NVIDIA preparam o terreno para Far Cry 3
 (Fonte da imagem: Baixaki Jogos)
A NVIDIA acaba de liberar um novo driver para a sua GeForce. Trata-se da versão 310.64, a qual foi projetada, entre outras coisas, para preparar a sua máquina para a chegada de Far Cry 3. Além de conter todas as melhorias das versões 310.54 e 310.61, o novo software ainda pode apresentar — nas configurações testadas pela fabricante — um ganho de desempenho de até 37,6%.
Além de aumentar a compatibilidade com a nova versão do shooter, a versão 310.64 (atualmente em fase Beta) também inclui o perfil SLI (Scalable Link Interface). Isso permite que duas (ou mais) placas trabalhem conjuntamente em uma única saída de vídeo — compartilhando, paralelamente, o processamento de imagens e aumentando a velocidade ou a qualidade da renderização.
Ademais, os testes com o novo driver foram levados a cabo em uma das resoluções mais populares entre os jogadores, a 1920x1080, incluindo diversas opções adicionais. Entre elas, o SSAO Ambient Occlusion — gerando um “equilíbrio entre desempenho e fidelidade” —, e o Transparency Supersampling na opção“Padrão”. Também foi utilizado o Anti Aliasing 8xMSAA.
Novos drivers da NVIDIA preparam o terreno para Far Cry 3
 (Fonte da imagem: Reprodução/NVIDIA)

Um boost para o detalhamento de Far Cry 3

Conforme mostra a imagem fornecida pela fabricante (acima), o novo driver parece realmente capaz de disparar um boost nas placas GTX 670 e GTX 680 — preparando, assim, o terreno para o respeitável detalhamento dos gráficos de Far Cry 3. Vale lembrar que a NVIDIA ainda não conduziu testes com outros modelos da GeForce.
Quanto a Far Cry 3, a previsão é de que o novo game da Ubisoft apareça nas prateleiras — físicas e virtuais — até amanhã, 30. Clique aqui para obter mais detalhes.

Whitebox: como funciona a medição de qualidade da banda larga no Brasil


Saiba mais a respeito do projeto que está previsto para durar cinco anos.


Whitebox: como funciona a medição de qualidade da banda larga no Brasil

Conforme o que foi anunciado pelo Tecmundo há alguns meses, a Anatel (Agência Nacional de Telecomunicações) realizará uma medição na velocidade da internet de todo o Brasil. A intenção do projeto é medir a qualidade do serviço fornecido pelas operadoras de banda larga e penalizar as empresas que não cumprem as normas da Agência.
Ao longo do projeto, que está previsto para durar cinco anos, cerca de 12 mil voluntários serão recrutados para testar o desempenho do serviço de banda larga contratado para suas casas. Cada pessoa sorteada vai receber um dispositivo chamado Whitebox, responsável pela execução dos testes de desempenho na conexão.

Como funciona o Whitebox?

O Whitebox nada mais é do que um roteador TP-Link que roda o firmware da EAQ (Empresa Aferidora da Qualidade de Banda Larga). O dispositivo é instalado entre o roteador e os demais aparelhos conectados à rede. Ou seja, o cabo de qualquer máquina que acesse a internet deve ser plugado no Whitebox, e não diretamente no roteador.
Whitebox: como funciona a medição de qualidade da banda larga no Brasil
 (Fonte da imagem: iStock)
O dispositivo executa testes de velocidade de download, velocidade de upload, latência, variação de latência e perda de pacotes. As informações coletadas são enviadas periodicamente para o órgão responsável pela análise dos dados.

Segurança

Whitebox: como funciona a medição de qualidade da banda larga no Brasil
Segundo as informações fornecidas na página da EAQ, o Whitebox não coleta nenhuma informação pessoal durante a realização dos testes. Além do resultado das análises feitas pelo dispositivo, os únicos dados solicitados para os voluntários são o endereço para envio do aparelho de medição e um email de contato.
 (Fonte da imagem: iStock)
Também consta no site a informação de que o EAQ não coleta qualquer informação de navegação pessoal que passe pelo Whitebox. Ou seja, não há como a empresa saber quais páginas são acessadas a partir das máquinas conectadas à rede com o dispositivo de medição.

E quando acabar o projeto?

Os voluntários que permanecerem até o final do projeto não precisarão devolver o Whitebox, podendo utilizá-lo para fins pessoais. Porém, aqueles que quiserem se desvincular da proposta antes do período de cinco anos serão obrigados a devolver o dispositivo para o órgão de medição.

Como ser um voluntário

Para fazer parte do grupo de voluntários para a medição da internet, é preciso fazer a inscrição na página da Empresa Aferidora da Qualidade de Banda Larga. Depois de realizar o cadastro, é só torcer para você ser um dos escolhidos. Não se esqueça de conferir os pré-requisitos antes de se inscrever.


Leia mais em: http://www.tecmundo.com.br/anatel/33380-whitebox-como-funciona-a-medicao-de-qualidade-da-banda-larga-no-brasil.htm#ixzz2Deyf9Tan

segunda-feira, 26 de novembro de 2012

5 sistemas operacionais da Microsoft que não deram certo


A maior empresa de softwares do mundo também comete deslizes, confira alguns dos principais.




Windows 8 acaba de ser lançado e a expectativa que existe em cima dele é muito grande. E isso é suficiente para deixar analistas com bastante receio, uma vez que a história já mostrou que isso pode ser acompanhado de erros enormes. Não entendeu? Pois uma série de sistemas operacionais já foram lançados no decorrer das últimas décadas e alguns dos mais aguardados se mostraram verdadeiras falhas.
Há dezenas de exemplos que poderiam ser citados neste artigo, mas decidimos escolher cinco dos mais importantes fracassos dos sistemas operacionais e nos limitamos à Microsoft para o texto. Será que você conhece os nomes que falaremos aqui? Prepare-se para conhecer um pouco mais sobre cada um dos escolhidos para nossa lista.

MS-DOS 4.0

Em uma época em que a interface gráfica não era a principal preocupação dos usuários de informática, o MS-DOS tornava-se uma das principais ferramentas de trabalho em todo o mundo. O sistema operacional tinha muitas vantagens em relação aos concorrentes e conseguia suprir boa parte das necessidades dos consumidores.
5 sistemas operacionais da Microsoft que não deram certo
 (Fonte da imagem: Reprodução/DLL Windows)
Mas 1988, a versão 4.0 do sistema da Microsoft foi um verdadeiro tiro no pé. Pela primeira vez, os consumidores estiveram na presença de um sistema operacional que congelava sem grandes explicações — algo como acontece com a tela azul, atualmente. Por causa dos problemas, boa parte dos usuários voltou ao MS-DOS 3.3 ou partiu para o concorrente DR-DOS.

Windows 1.01

Se hoje o Windows domina o mercado mundial, na metade dos anos 80 a Apple tinha algumas possibilidades superiores às oferecidas pela Microsoft. Em 1985, a empresa de Redmond lançou o Windows 1.01 e não conseguiu convencer os consumidores de que aquela seria a escolha correta para eles. A interface gráfica era bastante precária e não dava o que todos esperavam.
5 sistemas operacionais da Microsoft que não deram certo
 (Fonte da imagem: Reprodução/Guide Book Gallery)
Somente dois anos depois é que a Microsoft conseguiu fazer avanços, com o lançamento do Windows 2.03. A glória veio mesmo com o Windows 3.1, lançado em 1992. Mas até chegar lá, foi necessário passar por alguns erros bem complicados.

Windows Millenium

A família Windows 9x foi marcada por excelentes sistemas operacionais. O Windows 95 trouxe uma série de novas possibilidades aos usuários, mostrando que os sistemas de multitarefas (não como acontece atualmente) poderiam dar um novo ânimo à informática. O Windows 98 e a versão 98 SE também renderam ótimas críticas. Mas o último integrante da família 9x foi uma verdadeira “ovelha negra”.
5 sistemas operacionais da Microsoft que não deram certo
 (Fonte da imagem: Reprodução/Toasty Tech)
O site PC World considera o Windows Millenium como algo que funciona “tão bem quanto um cavalo com rodas nas patas da frente e cascos nas patas de trás”. Lento, instável e inseguro, há muitos usuários que dizem que o Windows Millenium só teve uma grande serventia: fazer o Windows XP parecer ainda mais incrível.

Windows Vista

Dada a evolução do Windows Millenium para o XP, esperava-se que o Vista fosse um “upgrade” tão benéfico quanto o seu antecessor. Maior do que a expectativa, apenas a decepção, uma vez que ele chegou como um dos sistemas operacionais mais pesados de que já tivemos notícias.
5 sistemas operacionais da Microsoft que não deram certo
 (Fonte da imagem: Baixaki/Tecmundo)
O site Computer World revelou, em 2008, que um terço dos computadores comprados com Windows Vista passaram por “downgrades” para o Windows XP. A Microsoft ampliou o suporte do XP por causa disso, fazendo com que ele pudesse ser utilizado até o lançamento do Windows 7.

Windows Mobile

Criado para rodar em smartphones e computadores de bolso, o Windows Mobile nunca se mostrou uma grande opção para os consumidores. Com poucas ofertas e carregando o nome Windows, gerava muitas expectativas e acabava levando poucos diferenciais até os usuários. Por isso, nunca conseguiu decolar muito alto.
5 sistemas operacionais da Microsoft que não deram certo
 (Fonte da imagem: Reprodução/i-Tech)
Mas o maior erro da Microsoft não fica por conta do sistema em si, mas da insistência nele. Quando o iPhone chegou ao mercado, um novo segmento — o dos smartphones — mostrou claros sinais de que seria gigante. Mas somente em 2010, três anos após o surgimento do iPhone, é que a Microsoft lançou o Windows Phone 7.
.....
Agora que você sabe que a Microsoft já cometeu alguns equívocos, continua apostando no Windows 8? Nós esperamos que ele se mostre uma evolução excelente para o Windows 7. Qual é o seu palpite?


Leia mais em: http://www.tecmundo.com.br/microsoft/33141-5-sistemas-operacionais-da-microsoft-que-nao-deram-certo.htm#ixzz2DNAuUluj

Serviços do Google saem do ar para parte do público


Usuários têm dificuldades para acessar serviços como email e a pesquisa na web.


Serviços do Google saem do ar para parte do público
Se você acessou o Twitter ou o Facebook na tarde desta segunda-feira, 26, provavelmente deve ter se deparado com reclamações a respeito dos serviços do Google (isso se você mesmo não fizer parte daqueles que estão com problemas).
Ao tentar acessar serviços como a pesquisa do Google, o YouTube ou o Gmail, o navegador não chega a carregar as páginas e encontra a mensagem “Erro 502”. Enquanto isso, os termos “O Google”, “Gmail”, “Erro 502” e “#voltagoogle” alcançaram os Trending Topics do país.
Em contato com o G1, o Google afirmou não haver nenhum problema com o seu serviço. Já o Tecnoblog informou que o problema estaria relacionado às redes Velox e Virtua, enquanto assinantes Speedy e GVT passaram ilesos pela queda do Google.

Causa do problema

De acordo com os primeiros rumores apurados pelo Tecnoblog, um ponto de troca da Embratel com a GLBX (Global Crossing) teria saído do ar. Por conta disso, as operadoras Oi Velox e NET Virtua estariam tendo dificuldades para oferecer seus serviços aos assinantes.
Ainda segundo o Tecnoblog, uma fonte anônima interna da NET afirmou que o provedor está com problemas para oferecer acesso a sites de fora do país, e a previsão para o reestabelecimento da normalidade dos serviços é para as 22h30. O Tecnoblog tentou entrar em contato com a assessoria de imprensa da NET, mas até o presente momento, não foi atendido.

Qual país tem a gasolina mais cara do mundo?


Confira uma lista com os 15 países donos dos combustíveis mais caros de todo o planeta.


Qual país tem a gasolina mais cara do mundo?

Sempre que saímos de casa e temos que encher o tanque dos nossos carros, pensamos que o valor cobrado por cada litro poderia ser um pouco (ou muito, em algumas ocasiões) mais baixo. Mas será que os brasileiros sofrem com os piores preços do mundo? A verdade é que não. E nem estamos no Top 15 mundial.
Quer saber quais são os verdadeiros “campeões” nos preços? Então confira a lista a seguir, que foi extraída do site Info. Vale dizer que todos os países citados na lista não possuem produção própria de gasolina, dependendo da importação de matéria prima ou do combustível já refinado, ao contrário do que acontece no Brasil.
  1. Turquia: R$ 5,46 (L);
  2. Noruega: R$ 5,46 (L);
  3. Eritreia: R$ 5,16 (L);
  4. Holanda: R$ 4,88 (L);
  5. Itália: R$ 4,82 (L);
  6. Dinamarca: R$ 4,81 (L);
  7. Suécia: R$ 4,69 (L);
  8. Finlândia: R$ 4,59 (L);
  9. Reino Unido: R$ 4,58 (L);
  10. Bélgica: R$ 4,58 (L);
  11. Grécia: R$ 4,50 (L);
  12. Irlanda: R$ 4,49 (L);
  13. Alemanha: R$ 4,46 (L);
  14. Hong Kong: R$ 4,46 (L);
  15. França: R$ 4,42 (L).


Leia mais em: http://www.tecmundo.com.br/mega-curioso/33131-qual-pais-tem-a-gasolina-mais-cara-do-mundo-.htm#ixzz2DN9fBAIT

Chave de produto do Windows 8 agora está na BIOS


Mudança só é válida para os dispositivos que vierem equipados de fábrica com o sistema operacional.


Chave de produto do Windows 8 agora está na BIOS
 (Fonte da imagem: Reprodução/BioVolts)
Quem comprava um computador de mesa ou notebook equipado com edições anteriores do Windows geralmente recebia o produto equipado com um adesivo colado na parte de trás ou de baixo com a product key do sistema operacional.
Mas a etiqueta representava dois problemas, um para o cliente e outro para a Microsoft: para a Gigante dos Softwares, a etiqueta tornava mais fácil a prática da pirataria; já os consumidores tinham que se preocupar com o desaparecimento das informações causado pelo desgaste do papel ou com um possível rasgo na etiqueta.

Direto na BIOS

Com o Windows 8, a empresa mudou de estratégia, retirando o adesivo e embutindo a chave do produto diretamente na BIOS do sistema. O objetivo principal da empresa é combater a pirataria, eliminando uma das maneiras mais fáceis dos usuários obterem uma chave de produto legítimo de forma ilegal.
Dessa forma também, caso seja preciso reinstalar o sistema operacional, o usuário não terá mais que digitar manualmente o código de ativação, já que o processo de instalação buscará automaticamente a chave do produto da BIOS.

Montando a máquina

Porém, a mudança é válida apenas para máquinas vendidas já prontas para o uso, como é o caso de notebooks, netbooks, tablets, ultrabooks e computadores de mesa “fechados”. Quem for atualizar o Windows ou adquirir um PC montado manualmente deverá ativar o sistema operacional da forma tradicional.
Mas um problema pode surgir para quem adquirir um dispositivo com Windows 8 Standart e quiser atualizar para versão Pro. De acordo com o site GHacks, o sistema de instalação buscará na BIOS a chave de produto da versão mais simples do Windows e acabará apenas reinstalando o sistema operacional, em vez de atualizá-lo para a versão mais completa.

domingo, 25 de novembro de 2012

VENDO NETBOOK SAMSUNG

VENDO NETBOOK SAMSUNG VALOR 700,00 PRODUTO EM PERFEITO ESTADO COM NOTA E EMBALADO NA CAIXA...

Especificações:
- Webcam: Sim
- Processador: Intel® ATOM Processor N455 (1.66GHz, 667MHz, 512KB)
- Memória RAM: 2 GB (DDR3 / 2 GB x 1) - Slots 1 x SODIMM
- HD: 320 GB (5400 rpm S-ATA)
- Tela: 10.1" WSVGA (1024 x 600)
- Resolução: Tela Não Reflexiva, Retroiluminado por LED
- Sistema Windows® 7 Professional 64 bits
- Conexão Wireless 802.11bgn
- Bluetooth 3.0 High Speed

Conexões: 
- 3 portas USB
- 1 porta para Cartão SD
Informações Básicas:
Cor: Preto
Peso:1,24Kg

INTERESSADOS LIGAR PRA (84) 8857-3920 / 9474-9311 / 9976-3841 OU DEIXAR RECADO AQUI NO FACE...ACL-INFORMATICA 









Mito ou verdade: é preciso tirar a bateria do notebook quando ele está no cabo?


Diversos mitos sempre existiram em relação às baterias de notebooks e celulares. Vamos desvendar alguns deles para você!



Muitos se perguntam se as baterias de notebooksnetbooks e celulares atuais “viciam” como era perceptível há alguns anos atrás. Em busca de evitar o problema, alguns usuários chegam a retirar a bateria dos notebooks enquanto há uma tomada por perto e sempre gastam toda a carga antes de plugar o computador na tomada novamente.
Será que essas práticas tem algum fundamento comprovado? E as baterias de hoje, apresentam ainda a possibilidade de serem viciadas pelo mau uso? O Baixaki pesquisou sobre o tema para você e responde a essas e outras questões nas linhas seguintes.
Vicia mesmo?
A resposta é muito simples: não! O fenômeno que muitos chamam de viciar a bateria na realidade se chama “Efeito Memória” e ocorria nas antigas baterias de níquel-cádmio. Elas registravam a diferença entre o ponto inicial da carga até que ela fosse maximizada.
As novas baterias não viciam como antigamente.
Em termos mais simples, se você carregasse algumas vezes a bateria a partir de 20% de carga, depois de um tempo o carregador passaria a considerar os 80% restantes como a carga total. Essa perda de carga útil é chamada de vício de bateria. Por isso a ideia de que é necessário esvaziar completamente as baterias perdura até hoje. As baterias atuais do gênero são de íons de lítio e não precisam desses cuidados.
Desgaste natural
Antes de tudo é necessário ter em mente que o carregamento e utilização das baterias são processos químicos e sofrem desgastes. O tempo de vida com bom rendimento de uma bateria de ótima qualidade é próximo de quinhentas cargas. Em componentes de baixo custo esse valor não chega a trezentos processos.
Mito ou verdade: é preciso tirar a bateria do notebook quando ele está no cabo?
As baterias não viciam ou perdem o seu potencial de carga pelas mesmas práticas que comentamos anteriormente, mas há alguns aspectos a serem observados para melhorar a vida útil do componente, em especial para quem tem sempre uma tomada por perto.
Deixar na tomada estraga?
Não há indícios comprovados de que manter a bateria no notebook ligado à tomada mesmo após a carga completa danifique o componente. Se você utiliza a bateria normalmente e faz algumas utilizações do notebook fora da tomada durante a semana nenhum efeito de perda de capacidade ocorrerá em curto prazo. Além disso, a bateria serve como estabilizadora para a corrente e evita que o computador desligue em uma queda de luz acidental, fatores que tornam útil mantê-la no aparelho.
Armazenamento
As dicas a seguir devem ser seguidas por quem deseja armazenar sua bateria em casa ou não fará uso do notebook durante um bom intervalo de tempo. Se os locais que você frequenta contam com tomadas acessíveis e você provavelmente não utilizará a bateria, é necessário ter alguns cuidados antes de guardá-la.
A carga ideal par armazenar é entre 40% e 50%.
É extremamente perigoso armazenar a bateria descarregada.  Com o tempo ela pode perder o que é chamado de carga mínima de funcionamento, o que causaria a “morte” do componente. Também não é recomendável guardá-la com 100% de carga, o que a desgastaria mais rapidamente.
O nível ideal de carga recomendado para armazenar a bateria é entre 40% e 50%. Também é importante mantê-la em um local seco e evitar locais de alta temperatura, visto que a capacidade de manter a carga é perdida em períodos longos de exposição ao calor

quinta-feira, 22 de novembro de 2012

Facebook quer mudar políticas e acabar com voto popular


Devido ao crescimento da rede social, mudanças no modo de governo do Facebook podem ser necessárias para melhorar a qualidade do serviço.


Facebook quer mudar políticas e acabar com voto popular

Ontem, o Facebook divulgou, por meio de sua página de imprensa, novas propostas para a forma como a rede social será governada daqui para frente. Conforme informação em documento oficial, a equipe que coordena a rede social percebeu que o mecanismo de votação, utilizado até o presente momento, incentiva a quantidade comentários e não a qualidade.
Assim, o Facebook deve sofrer algumas mudanças, a começar pela retirada do componente de votação e a adoção de um novo sistema que valorize um envolvimento mais significativo. A equipe da rede social vai dar atenção a cada comentário e enviará notificações para avisar sobre as mudanças. Confira quais são as novas formas de responder as questões:
  • Pergunte à Diretora de Políticas de Privacidade: este recurso será adicionado à Pagina de Privacidade do Facebook (https://www.facebook.com/fbprivacy) para que você possa enviar perguntas para a Diretora Política, Erin Egan;
  • Eventos ao vivo do Facebook: Erin Egan apresentará webcasts regularmente para responder aos seus comentários e suas perguntas sobre privacidade e segurança.
Apesar de ter diversos planos traçados, a equipe de políticas do Facebook aceitará análises e comentários sobre as novidades até o dia 28 de novembro na página Facebook Site Governance.

Coletek apresenta novos teclados da A4 Tech


Quatro novos modelos da empresa têm design diferenciado, teclas confortáveis e ajustes flexíveis


Coletek apresenta novos teclados da A4 Tech
Modelo KD600. (Fonte da imagem: Divulgação/A4 Tech)
A A4 Tech está lançando no Brasil quatro novos modelos de teclados. Os produtos em questão são os seguintes: KR750, KLS40, KRS86 e KD600. Todos apresentam design diferenciado, teclas confortáveis e ajustes flexíveis, proporcionando mais suavidade na digitação.
O principal deles é o KD600, que tem backlight de LED nas teclas, facilitando o uso em jogos e na digitação em ambientes com pouca luminosidade. O modelo estará disponível no mercado pelo preço sugerido de R$ 90. Já as versões KSL 40 e KRS86 devem custar R$ 40 cada, e têm como diferenciais hot keys de atalho para multimídia e internet.
Por fim, o mais simples dos modelos, é o KR750, que conta com orifício de drenagem para retirada de líquidos em caso de acidentes. A identificação das teclas é feita a laser, evitando o desaparecimento dos caracteres. O preço sugerido desse modelo é de R$ 30.

Feed de notícias ainda é o conteúdo mais visualizado do Facebook


Segundo estudo, 40% do tempo gasto na rede social são dedicados às atualizações de amigos e páginas favoritas

Feed de notícias ainda é o conteúdo mais visualizado do Facebook
Como você passa seu tempo no Facebook? Olhando fotos de amigos, explorando jogos sociais ou compartilhando imagens de gatos e outras coisas engraçadas? Pois uma pesquisa revelou que, de todos os serviços oferecidos pela rede social, o mais utilizado pelos usuários é o feed de notícias.
Segundo um relatório divulgado pela comScore — uma empresa especializada em análise de dados —, as pessoas passam 40% do tempo gasto no Facebook olhando as atualizações de amigos, novidades de suas páginas favoritas e tudo aquilo que aparece em sua página inicial. O interessante é que esse valor está consideravelmente acima de todas as demais opções.
Duvida? De acordo com a companhia que realizou o estudo, a visualização de álbuns e de suas respectivas fotos é a segunda atividade mais popular do site — e todos nós sabemos o quão viciante pode ser ficar olhando as últimas imagens postadas por alguém —, mas demanda apenas 16% do tempo dos usuários. Já a utilização de aplicativos, como jogos, corresponde a 14% do total analisado.
Como não poderia deixar de ser, os stalkers do Facebook não passaram despercebidos. Sabe as horas que você passa encarando o seu perfil, daquela menina que você conheceu na balada ou até mesmo de seu ex-namorado? Pois isso corresponde a 12% de todo o tempo gasto dentro do site.
Feed de notícias ainda é o conteúdo mais visualizado do Facebook
Fechando a conta, temos 18% dos momentos dentro dos domínios de Mark Zuckerberg sendo usados para atividades variadas, como visitando eventos ou simplesmente batendo papo com seus amigos.

Qual a utilidade desses números?

Se você é um usuário ativo do Facebook, esses números não são nenhuma surpresa, principalmente porque eles não vão mudar sua vida. Afinal, que utilidade há em saber que o feed de notícias é a tela em que as pessoas mais passam seu tempo?
Isso pode até não ser útil para você, mas é uma informação fundamental para produtores de conteúdo, que precisam encontrar formas de atingir seu público de maneiras efetivas. Assim, sabendo onde está sua atenção, fica muito mais fácil pensar em estratégias para fazer com que a mensagem chegue ao seu destino — seja com publicações patrocinadas ou com promoções que atraiam novos seguidores a partir dessa tela inicial.

Outros dados

Além disso, a comScore trouxe mais algumas informações interessante sobre o comportamento do usuário na internet, sobretudo nas redes sociais. De acordo com os relatórios, a importância da utilização de imagens na hora de atingir o público cresceu consideravelmente, como pôde ser visto pela expansão de serviços como o Instagram, Pinterest e da própria linha do tempo do Facebook, que deu mais importância a esse material visual.

É verdade que a Apple está entrando em uma crise?


Números negativos nos últimos meses fizeram com que a empresa ligasse o sinal de alerta, mas talvez a palavra crise seja pesada demais para descrever o momento da Apple.

É verdade que a Apple está entrando em uma crise?
Apple não é mais a mesma. Depois de muitos anos de crescimento contínuo, o ano de 2012 marcou os primeiros insucessos da empresa, situação que se agravou nos últimos três meses. Entretanto, usar a palavra “crise” para descrever o atual momento da Apple é um exagero.
Afinal, mesmo com uma queda de quase 20% no seu valor, a empresa ainda é a líder de mercado em seu segmento e pode ser considerada a companhia mais valiosa do mundo. Fazendo uma comparação mais simplória, é como se um time de futebol abrisse uma vantagem de 30 pontos no Campeonato Brasileiro e, de repente, visse essa vantagem cair para cinco pontos. É um sinal de alerta, sem dúvida, mas a crise mesmo ainda não chegou.
Mas qual é a explicação para o desempenho ruim nos últimos meses? Estaria a Apple sentindo falta de Steve Jobs, o mercado mudou ou essa é uma consequência natural para uma empresa que chega a um ponto tão alto no ranking corporativo? Entenda melhor o conjunto de motivos que levou a companhia a ligar o sinal amarelo e rever alguns dos seus conceitos.

Quanto mais alto, maior o tombo

É verdade que a Apple está entrando em uma crise?
 (Fonte da imagem: Reprodução/CNN)
As ações da companhia chegaram a atingir o valor de US$ 705 cada, um recorde absoluto. Seja qual for a empresa, é muito difícil sustentar um número tão alto assim a menos que exista a promessa de algo muito grande por vir, o que não é o caso da Apple, uma vez que não se vislumbra nenhuma inovação revolucionária para os próximos dois anos.
Sendo assim, a queda de valor acaba sendo um movimento natural, uma vez que o valor anterior poderia ser considerado uma “bolha”. Assim, é possível afirmar que agora as coisas voltaram ao “normal”, atingindo um patamar mais realista de mercado - o que não significa que a empresa não precise ligar o sinal de alerta.

O aplicativo Mapas e o Siri

É verdade que a Apple está entrando em uma crise?
 (Fonte da imagem: Reprodução/Mapas)
A iniciativa de lançar um aplicativo próprio de mapas para concorrer com a Google é louvável. Entretanto, lançar um aplicativo tão ruim e tão abaixo da qualidade do concorrente certamente não foi a melhor das escolhas. Para piorar, a Apple tirou o acesso nativo ao Google Maps, tornando um dos softwares mais importantes do seu produto defasado em relação aos concorrentes.
O Siri, grande aposta dos modelos anteriores do iPhone, também não é mais um diferencial. Embora a ferramenta tenha apresentado melhorias, o Google Now se mostrou mais completo, ainda que em fase inicial, praticamente “matando” um dos diferenciais mais interessantes do smartphone da Apple.

iPhone: a dificuldade em atender a demanda

É verdade que a Apple está entrando em uma crise?
 (Fonte da imagem: Divulgação/Apple)
O sucesso e a melhoria contínua têm um alto preço. Por conta disso, atender a demanda de produtos está cada vez mais difícil para os fabricantes. A Foxconn, por exemplo, alegou que o processo de criação de um iPhone 5 ficou mais trabalhoso e oneroso. Em contrapartida, o volume de produtos necessários continua subindo.
A impossibilidade de atender a demanda fez com que a Apple “pisasse no freio” e diminuísse o número de países que receberam a oferta inicial de produtos. Ou seja, está cada vez mais difícil vender uma quantidade tão grande de smartphones de uma só vez – o que pode custar caro para a empresa.

iPad Mini: o canibal

É verdade que a Apple está entrando em uma crise?
 (Fonte da imagem: Divulgação/Apple)
Steve Jobs não queria lançar uma versão do iPad com tela menor. Entretanto, a chegada de concorrentes com preços mais baixos – e com qualidade – como o Nexus, da Google, e o Kindle, da Amazon, obrigou a Apple a tomar uma medida protecionista: lançar um produto para bater de frente diretamente com os dois.
Apesar disso, o preço do iPad Mini ainda é maior. Baixar o preço aumentaria as vendas, mas diminuiria a margem de lucro. Ou seja, seria preciso vender mais produtos para ganhar a mesma quantia. Vender uma quantia maior pode significar mais problemas para atender a demanda. Ou seja, não há muita escolha. Tendo concorrência no mercado, a Apple precisará rever a sua estratégia, caso contrário começará a perder mercado.

Processos e mais processos

É verdade que a Apple está entrando em uma crise?
 (Fonte da imagem: iStock)
Não é a perda de dinheiro com processos que fará a Apple quebrar. Mesmo que ela ganhe indenizações polpudas, como no caso da disputa judicial com a Samsung, não são esses bilhões a mais ou a menos que farão diferença. O grande problema para a empresa é a sua imagem, que, ganhando ou perdendo, sai arranhada ao enfrentar um processo judicial.
Os gastos com processos também influenciam, assim como todo o investimento no registro das patentes mais simples que possam existir. O grande segredo nesse quesito é saber encontrar um limite de bom senso, algo que, ao menos sob o comando de Tim Cook, parece ter sido extrapolado um pouco.

Os erros de Tim Cook

É verdade que a Apple está entrando em uma crise?
 (Fonte da imagem: Divulgação/Apple)
Substituir Steve Jobs não é uma tarefa fácil para um CEO e não se pode dizer que Tim Cook esteja indo mal. Entretanto, dois erros pontuais seus, segundo os especialistas, podem ter impacto nesse número ou ainda gerar resultados negativos para a empresa em longo prazo. A contratação de John Browett para cuidar das Apple Stores foi vista com desconfiança pelo mercado, em especial pela sua falta de experiência.
Outra “dança das cadeiras” que deixou os investidores desconfiados foi a aposentadoria de Bob Mansfield, um dos gerentes da Apple. Ele deixou seu posto em junho, mas em agosto aceitou voltar a trabalhar mediante contrato à parte. Contudo, no mês de outubro, ele foi promovido e designado para cuidar de “novas tecnologias”. Essa série de incertezas colaborou para aumentar a desconfiança.

A eleição nos EUA

É verdade que a Apple está entrando em uma crise?
 (Fonte da imagem: Reprodução/ZoeLife Magazine)
Esse é o menor dos problemas, mas ao menos nesse período pôde representar também uma parcela de culpa. Nos últimos três meses, os Estados Unidos passaram pelo processo eleitoral – que resultou na reeleição do presidente Barack Obama. Como em qualquer país, a época de eleição sempre gera algumas incertezas no mercado.
A dúvida com relação a quem vai ganhar e se haverá novas políticas econômicas em jogo faz com que muitas empresas retraiam os seus investimentos e aguardem o resultado para anunciar as suas decisões. A Apple não foi a única cair, mas pode ter sido afetada pelo momento da economia.

E agora, Apple?

A crise ainda não chegou - e está longe de isso acontecer. Entretanto, isso não significa que a empresa possa continuar com a mesma estratégia sem que, em um futuro próximo, tenha um impacto negativo em seus resultados. A solução, mais uma vez, é inovar, pensamento que era recorrente na companhia sob o comando de Steve Jobs.
Com Tim Cook, a Apple parece enfrentar uma "crise" de inovação, apostando muito mais na manutenção e na atualização de tudo aquilo que conquistou, do que em se reinventar ou criar coisas novas. A médio prazo a estratégia deve funcionar, afinal não se perde uma liderança tão sólida da noite para o dia. Contudo, não podemos afirmar que daqui dois ou três anos a empresa ainda estará em primeiro lugar. Estaria nascendo uma nova era?


Leia mais em: http://www.tecmundo.com.br/apple/32945-e-verdade-que-a-apple-esta-entrando-em-uma-crise-.htm#ixzz2CxWQokJq