Arquivo
-
▼
2011
(124)
-
▼
julho
(15)
- Mito ou verdade: restaurar o sistema pode trazer v...
- Velocidades sem limite: a evolução da banda larga.
- Criada bateria transparente e flexível
- Mozilla criará sistema operacional aberto
- Um milhão de PCs tenta atacar Google
- O Museu da História do Computador
- GE cria mídia holográfica de 500 GB
- O que é Computação em Nuvens?
- 22º SBIE e 17º WIE
- Virtualização de Sistemas Operacionais
- Como escolher uma distribuição Linux?
- Porque usar Software Livre?
- Dicas para utilizar seu PC antigo!
- Twitter publica 200 milhões de mensagens por dia
- Operadoras brasileiras vão oferecer banda larga a ...
-
▼
julho
(15)
Seguidores
Tecnologia do Blogger.
Notícias
Páginas
sexta-feira, 29 de julho de 2011
16:07 | Postado por
Computação Top10 |
Editar postagem
Veja o que acontece quando a Restauração do Sistema é ativada em computadores infectados.
A Restauração do Sistema é um recurso muito interessante e útil oferecido pelo Windows desde suas versões mais antigas. Com ele, o usuário consegue “voltar no tempo” até o ponto anterior à instalação de algum aplicativo ou alteração das configurações. Dessa forma, é possível reaver dados importantes e recuperar o sistema de alguns problemas causados durante a adição de algum aplicativo.
Embora seja poderosa e salve a vida de muitos usuários, a Restauração do Sistema também pode trazer alguns problemas. Você já deve saber que esse recurso pode ser utilizado para remover arquivos de configurações do sistema infectados. O que muitos não imaginam é que a restauração também pode trazer de volta alguns vírus antigos.
Como assim?
Os vírus criados com o intuito de prejudicar os usuários normalmente corrompem arquivos de grande importância do sistema. Se o computador estiver infectado, é possível que haja uma cópia dessa praga na pasta de restauração do sistema. Por padrão, o Windows protege esse diretório de alterações não autorizadas pelo SO, mas é claro que isso nem sempre acontece como deveria.
Alguns vírus são criados especificamente para se alojarem na pasta “_RESTORE” do sistema (contém os pontos de restauração) e só são ativados quando o usuário volta no tempo e utiliza versões anteriores das configurações do SO.
O que fazer?
Para evitar que os vírus voltem à ativa, o usuário pode desativar a restauração automática do sistema. O processo é bem simples e não apaga quaisquer arquivos ou informações do computador. Os únicos dados apagados são aqueles presentes na pasta “_RESTORE” e, junto com eles, os vírus ali alojados.
Como desativar a Restauração do Sistema
No Windows XP
1. Clique com o botão direito do mouse sobre “Meu computador” e selecione a opção “Propriedades”.
2. Na guia “Restauração do Sistema”, escolha a opção “Desativar Restauração do Sistema”.
3. Agora é só clicar em “Aplicar”, confirmar as alterações e aguardar até que os arquivos sejam apagados.
No Windows Vista
1. Clique com o botão direito do mouse sobre “Computador” e selecione a opção “Propriedades”.
2. Na janela de Informações do Sistema, clique no botão “Proteção do Sistema” presente na coluna mais à esquerda.
3. A janela de Proteção do Sistema será exibida. Agora é só desmarcar a unidade de disco desejada em “Discos Disponíveis” e clicar no botão “Aplicar”. Confirme as alterações e aguarde até que os arquivos sejam apagados.
No Windows 7
1. Clique com o botão direito do mouse sobre “Computador” e selecione a opção “Propriedades”.
2. Na janela de Informações do Sistema, clique no botão “Proteção do Sistema” presente na coluna mais à esquerda.
3. Na janela Propriedades do Sistema, acesse a aba “Proteção do Sistema” e clique na opção “Configurar”, localizada abaixo da lista de partições e discos.
4. A tela “Proteção do Sistema para Disco Local” será mostrada. Marque o item “Desativar a Proteção do Sistema” e clique em “Aplicar”. Confirme as alterações e aguarde até que os arquivos sejam apagados.
Agora que a Restauração do Sistema foi desativada é recomendável que o usuário execute uma varredura completa com um programa antivírus. Caso algum arquivo tenha sido deixado para trás e esteja infectado, o aplicativo de proteção será capaz de remover o vírus e deixar sua máquina mais segura.
Para finalizar
A Restauração do Sistema é um recurso importante do Windows e também é muito útil. Por isso, depois de realizar os procedimentos acima, é recomendável que a funcionalidade seja reativada. Todos os passos e dicas necessárias para fazer isso podem ser encontrados nos artigos listados abaixo.
Além disso, é muito importante que você tenha um programa antivírus instalado e atualizado no computador. O Baixaki oferece centenas de aplicativos do gênero, os quais atendem aos mais diferentes tipos de usuários. Confira abaixo uma lista com algumas dessas ferramentas de proteção.
quarta-feira, 27 de julho de 2011
18:07 | Postado por
Computação Top10 |
Editar postagem
Quando o assunto é internet, algo que todos concordam é que, quanto maior a largura de banda disponível, melhor a experiência do usuário. Afinal, uma maior capacidade de transmissão de dados significa downloads mais rápidos e acesso a uma quantidade vasta de conteúdos em menos tempo.
O que nem todos sabem é que todos os aumentos de velocidade testemunhados nas últimas décadas são resultados de um trabalho iniciado na década de 1970. Falar da evolução das velocidades de conexão é contar a história do padrão Ethernet, criado há mais de 30 anos com o objetivo de facilitar a comunicação entre múltiplos computadores.
Neste artigo, expomos alguns detalhes sobre a tecnologia, sua história e os desenvolvimentos futuros. Note que as informações contidas são apresentadas de forma resumida, já que diversos pontos da tecnologia possuem detalhes suficientes para justificar a criação de artigos específicos.
Um produto Xerox
O padrão Ethernet foi desenvolvido no centro de pesquisa da Xerox em Palo Alto, na Califórnia. O responsável pelo projeto é Bob Metcalfe, que em 1973 enviou um memorando a seus chefes no qual destaca o potencial da tecnologia para redes locais.
O nome Ethernet tem como origem o éter luminoso presente na natureza, considerado por físicos do século XIX como o meio pelo qual as ondas eletromagnéticas se propagavam.
Somente em 1980 a tecnologia ganhou força, após a empresa unir esforços com a DEC e a Intel no desenvolvimento de uma especificação Ethernet de 10 Mbps. Além de aumentar a velocidade com que os dados eram enviados, o novo padrão corrigia vários dos bugs presentes na versão anterior, que possui velocidade de somente 3 Mbps.
Na época, a tecnologia possuía dois grandes competidores: a token ring e a ARCNET. Os fatores mais importantes para o sucesso da Ethernet foram o apoio de empresas de renome e o fato de que a tecnologia apresentava uma maior velocidade, acompanhada por um número menor de restrições em relação aos concorrentes.
Como funciona a tecnologia?
O padrão Ethernet é baseado na ideia de diversos pontos de uma rede enviando mensagens entre si. Cada ponta dos cabos utilizados possui uma chave de 48 bits globalmente única, conhecida como endereço MAC, forma de garantir que todos os sistemas da rede possuam endereços distintos.
Para evitar a colisão de pacotes, o padrão checa se o canal está inativo, para só então iniciar a transmissão dos dados. Caso mesmo assim ocorra algum problema, o sistema envia um sinal alertando sobre o acúmulo excessivo de informações na rede.
A partir desse momento, todos os lados envolvidos na colisão iniciam novamente o envio dos pacotes. Para evitar que novos problemas ocorram, a Ethernet usa um sistema que determina um tempo de espera para que o processo ocorra novamente nas máquinas conectadas à rede.
Caso os pacotes colidam novamente, o sistema determina intervalos de tempo que se multiplicam por dois a cada nova tentativa. Por exemplo: na primeira colisão, os tempos de espera são de 0 e 1 segundos, o que resulta em chances de 50% do problema voltar a ocorrer. Caso isso aconteça, são determinados tempos de espera de 0, 1, 2 e 3 segundos, o que aumenta as chances de sucesso para 75%.
Após 16 colisões seguidas, a rede desiste do processo e joga fora o pacote. No começo, havia muitas dúvidas quando à efetividade da tecnologia, porém, já em 1976 um trabalho de Bob Metcalfe e David Boggs provou que a eficiência na transmissão de dados chegava a 95%, mesmo em redes com um grande número de máquinas.
Cabeamento
No início, a Ethernet utilizava cabos coaxiais de 9,5 mm para estabelecer as conexões entre diferentes computadores. Devido à necessidade de se adaptar a redes domésticas e aproveitar o cabeamento já existente, foi desenvolvido um novo padrão mais fino, semelhante ao utilizado para o acesso à televisão a cabo.
Durante a história da tecnologia, diversas adaptações tiveram que ser feitas para possibilitar uma maior velocidade no avanço dos cabos. Atualmente, a maioria dos sistemas Ethernet utiliza o padrão 100BASE-T, que permite o uso de switches com velocidades variadas e comunicações Full Duplex, que possibilitam o envio e recebimento de dados em dois sentidos.
Padrão em constante evolução
Apesar de 10 Mbps representarem uma velocidade absurda na década de 1980, 10 anos depois não parecia mais algo tão interessante e rápido. Felizmente, na época já havia sido desenvolvida uma tecnologia dez vezes mais rápida, a Fiber Distributed Data Interface (FDDI).
O FDDI é uma rede em forma de anel capaz de alcançar velocidades de até 100 Mbps, com suporte a um segundo anel redundante que entra em ação caso o principal deixe de funcionar. Apesar de se diferenciar bastante do padrão Ethernet, a troca de pacotes entre as duas tecnologias é possível através do uso de pontes de comunicação.
Tais pontes são conectadas a múltiplos segmentos LAN, e são capazes de detectar os endereços usados por cada um deles. Uma das principais vantagens da tecnologia é o fato de que comunicações e colisões locais ficam restritas às redes em que acontecem, sem prejudicar a estrutura geral. Além disso, os pacotes enviados possuem liberdade total para trafegar livremente entre os diferentes locais conectados.
Apesar de ser útil para conectar múltiplos segmentos e servidores, a FDDI sofria com os mesmos problemas dos cabos coaxiais: se um ponto fosse desconectado, toda a rede caía. Somado aos custos elevados, foi necessário o desenvolvimento de um novo padrão, conhecido como Fast Ethernet.
Fast Ethernet
Emprestando a codificação 4B/5B MLT-3 da CDDI, em 1995 foi lançada a norma 802.3u, resultando no padrão 100BASE-T de Ethernet a 100 Mbps. A principal vantagem da tecnologia é manter intactas características como tamanho máximo dos pacotes enviados e o mecanismo de controle de acesso CSMA/CD.
A principal diferença está na taxa de transmissão de dados, que podem ser enviados com velocidades 10 vezes mais rápidas do que o padrão original. Outro destaque é a capacidade de alcançar até 200 Mbps na Fast Ethernet Full Duplex, algo que só é possível caso o tráfego de dados entre dois pontos seja totalmente simétrico.
Gigabit Ethernet
Em 1997, a Fast Ethernet foi superada por um novo padrão capaz de entregar velocidades de conexão de 1 Gbps. Assim como a tecnologia que a precede, a Gigabit Ethernet pega emprestadas características de um competidor para possibilitar tamanho salto tecnológico.
A escolhida dessa vez foi a Fibre Channel, tecnologia usada principalmente em redes de armazenamento de dados. A migração para a tecnologia Gigabit não exige grandes investimentos, já que as especificações técnicas se mantêm as mesmas das versões anteriores.
A rede Gigabit Ethernet suporta transmissões tanto no modo Half Duplex quanto em Full Duplex, dependendo do modo como é configurada. A principal mudança da tecnologia foi a introdução de um recurso conhecido como frame burst, através da qual uma estação pode transmitir diversos pacotes para o meio físico sem perder o controle.
O que o futuro nos reserva?
Atualmente, já está sendo desenvolvido o padrão Gigabit Ethernet de 100 Gbps, algo que se mostra especialmente desafiador devido à dificuldade em manter a forma dos pulsos de lasers transmitidos por fibra ótica. Dessa forma, a tecnologia está em um estado em que só funciona de forma eficiente em curtas distâncias e ainda está longe de ficar disponível ao grande público.
O principal problema enfrentado para o avanço da Ethernet é sua retrocompatibilidade. Como durante os anos o tamanho máximo dos pacotes enviados permaneceu exatamente o mesmo, uma mudança nesse sentido faria com que milhões de pessoas perdessem o acesso à internet. Isso traz como consequência o subaproveitamento das velocidades de conexão disponíveis atualmente, que perdem muito tempo com o envio de milhões de pacotes que atualmente são considerados minúsculos.
O futuro aponta para um caminho semelhante ao usado no desenvolvimento de CPUs modernas, com o uso de cabos capazes de enviar sinais de forma paralela. Outra esperança é o uso da tecnologia DWDM (Dense Wavelenght Division Multiplexing), que usa uma única fibra ótica para a transmissão de dados através de lasers com comprimentos de onda ligeiramente diferentes entre si, técnica amplamente usada pelos cabos de transmissão submarinos.
Marcadores:
Interessante
|
0
comentários
15:29 | Postado por
Computação Top10 |
Editar postagem
Uma bateria de lítio-íon transparente e flexível foi criada por cientistas da Universidade de Stanford, nos Estados Unidos.
Com custo equivalente ao das baterias comuns, ela seria facilmente produzida em larga escala e poderia ser usada na criação de gadgets transparentes ou em pesquisas.
O feito dos pesquisadores Yi Cui e Yuan Yang, publicado na revista científica Proceedings of The National Academy of Science, foi contornar o principal problema na busca por baterias translúcidas: encontrar materiais compatíveis.
Uma vez que não se poderia substituir alguns elementos-chave, a ideia foi criar uma bateria de tal forma que suas partes não-transparentes fossem muito pequenas para serem vistas a olho nu. Basicamente, se algo é menor do que 50 microns, parecerá transparente aos nossos olhos.
Etapas
A primeira parte do projeto foi pensar em um invólucro para a bateria. Já que cobre ou alumínio não poderiam ser usados, os pesquisadores optaram por um componente flexível como a borracha chamado polydimethylsiloxane (PDMS), que é barato e já usado em lentes de contato.
O problema do PDMS é que ele não é condutor - e como esta é uma característica essencial para uma bateria, era preciso recobri-lo de metal de alguma maneira. O material foi então colocado em moldes de silício, de forma a criar sulcos e padrões em forma de rede em sua superfície. Um filme de metal foi então evaporado nesses sulcos, criando uma camada condutora. O detalhe é que cada uma dessas linhas foi feita com apenas 35 microns de largura.
Os pesquisadores então derramaram uma solução liquida com nano-eletrodos nesses sulcos.
O próximo passo foi um encontrar uma substância transparente que funcionasse como eletrólito e também separador (uma vez que os materiais usados como separador em baterias comuns não são transparentes). Os pesquisadores modificaram um gel eletrólito já existente e o colocaram entre os dois eletrodos, criando a bateria.
Várias camadas desse “sanduíche” podem ser adicionadas para criar um dispositivo maior e mais potente. O importante é que as linhas fiquem sobrepostas, para manter o efeito da transparência. Até agora, os pesquisadores conseguiram 62% de transparência na luz visível e 60% com três baterias empilhadas.
O novo dispositivo é flexível e tem o custo similar ao das baterias comuns. O único problema é que, por enquanto, ele ainda tem metade da capacidade das baterias de lítio-ion, um armazenamento comparável às de níquel-cádmio.
A ideia dos cientistas, que já patentearam a tecnologia, é continuar desenvolvendo a pesquisa para que ela se equipare ao que está hoje disponível no mercado.
Fonte: info.abril.com.br/
Fonte: info.abril.com.br/
terça-feira, 26 de julho de 2011
14:47 | Postado por
Computação Top10 |
Editar postagem
A fundação Mozilla anunciou em seu blog que criará um sistema operacional aberto. Chamado B2G (Boot to Gecko), ele hospedará aplicativos e documentos na nuvem, similar ao Chrome OS, mas será voltado para smartphones, tablets e outros portáteis. Segundo Andreas Gal, pesquisador da Mozilla, “o projeto ainda está no início”.
O objetivo da Mozilla com o B2G é criar um sistema operacional completo, aberto e independente. Além disso, a fundação quer dar suporte aos desenvolvedores para criarem apps iguais aos nativos do iOS, Android e Windows Phone7.
Apesar de parte do B2G usar a plataforma Android, a plataforma poderá vetar aplicativos do sistema do Google. Além dos serviços remotos, a Mozilla quer incluir telefonia, SMS, câmera, porta USB, conexão Bluetooth e tecnologia NFC, que possibilita até pagamento pelo celular. O código fonte do sistema operacional será compartilhado entre os colaboradores do projeto. Ontem, grupo de discussão com tópicos sobre o SO foi ao ar.segunda-feira, 25 de julho de 2011
11:48 | Postado por
Computação Top10 |
Editar postagem
São Paulo - O engenheiro Damian Menscher, responsável pela manutenção de data centers do Google, denunciou a existência de uma rede zumbi de um milhão de PCs que tenta atacar os serviços de busca da empresa de Mountain View.
Segundo Menscher, a rede é formada por máquinas com Windows infectadas por algum malware de redirecionanento de navegação. O código malicioso muda a configuração de proxy dos browsers dos usuários e os utiliza para acessar sites sem a permissão do usuário.
Para Menscher, esta rede vem sendo usada para realizar vários acessos simultâneos aos serviços de busca do Google, o chamado ataque de negação de serviço que, até o momento, diz Menscher, foram contornados por sua companhia.
O método de ataque não é novo e é relativamente comum na web. Para tentar desfazer a rede zumbi, o Google está enviando mensagens aos PCs que ele identificou como infectados pedindo que seus donos realizem procedimentos de segurança, como mudar a configuração de proxy do browser, atualizar o antivírus e a versão de seu sistema operacional.
domingo, 24 de julho de 2011
14:11 | Postado por
Amauri |
Editar postagem
O Museu da História do Computador é a instituição líder mundial em explorar a história da computação e seu impacto em curso na sociedade. É o lar da maior coleção internacional de artefatos de computação do mundo, abrangendo hardware, software, documentação, fotografias e imagens em movimento. O Museu traz história do computador para a vida através de uma série de colunas aclamado, site dinâmico, no local-tours, bem como exposições de física e online.
Fisicamente o museu está instalado na Califórnia, nos Estados Unidos, mas pela web também é possível acompanhar toda a evolução digital.
Palestras e eventos
O Museu da História do Computador realiza eventos durante o ano todo dedicado a celebrar a história do computador. O Museu oferece uma série de palestrantes altamente respeitado acadêmico com perspectivas históricas sobre a indústria de computação. Líderes inovadores, gigantes da indústria, engenheiros e cientistas vêm ao Museu compartilhar seus conhecimentos pessoais e histórias sobre os desenvolvimentos e descobertas que moldaram o nosso mundo. O Museu também abriga eventos especiais, incluindo reuniões indústria comemorativas, conferências e feiras de tecnologia de computador para capturar e preservar histórias e artefatos das pessoas que foram fundamentais na tomada de história do computador.
No site, você pode viajar pela história e conhecer as primeiras calculadoras, computadores pessoais, softwares, celulares e tudo que envolve o universo tecnológico. É mostrado abaixo alguns exemplos que podem ser visualizados no site do museu.
Computadores pessoais
Computadores para todos
Computadores evoluiu principalmente para os militares, os usuários do governo, científicos e corporativos com necessidades substanciais ... e os orçamentos substanciais. Eles povoaram laboratórios, universidades e grandes empresas. Casas?Empresas de pequeno porte? Não tanto.
Com o tempo, contudo, os custos caíram. Igualmente importante, os computadores cresceu sofisticados o suficiente para esconder os seus complexos, aspectos técnicos por trás de uma interface amigável. Indivíduos poderiam agora ter recursos e compreender os computadores, que mudou dramaticamente a vida quotidiana.
Arnold Nordsieck começou a construir seu analisador diferencial, quando a maioria dos pesquisadores de computação estavam experimentando com tubo de vácuo-computadores eletrônicos digitais. Nordsieck precisava de uma máquina simples, barato e prático.Um analisador de pequeno diferencial.
Analyzer Nordsieck do diferencial
Usando um valor de 700 dólares de excedentes de suprimentos da II Guerra Mundial, Arnold Nordsieck montou um computador analógico em 1950. Foi modelado em analisadores diferenciais construídos desde a década de 1930.Por exemplo, o computador é usado Nordsieck conexões elétricas ao invés de eixos mecânicos. E ele pôs-se as prioridades de "conveniência e simplicidade ... portabilidade, economia ." Seu tamanho pequeno, dispositivo e a engenharia direta satisfeitos os primeiros três requisitos. Seu preço $ 700 satisfeito o quarto.
Computadores analógicos
Diferentes maneiras de medir e modelar o mundo: Analógico e Digital
Nosso mundo é uma sinfonia de infinitas variações. Muito antes de computadores digitais existir, os engenheiros construíram modelos para simular as nuances do mundo real.
Computadores analógicos continuaram esta tradição, utilizando o movimento mecânico ou o fluxo de eletricidade para os problemas do modelo e gerar respostas rapidamente. Eles permaneceram a ferramenta preferida até computadores digitais, com base em chaves eletrônicas, tornou-se rápido o suficiente para software para fazer o mesmo trabalho.
quinta-feira, 21 de julho de 2011
11:19 | Postado por
Amauri |
Editar postagem
(Fonte da imagem: Divulgação General Eletric)
A General Eletric anunciou ontem (20/07) que obtiveram sucesso na criação de uma nova mídia óptica para armazenamento de dados: discos holográficos de 500 GB.
O novo disco da General Eletric utiliza milhões de micro hologramas estampados para armazenar os dados e poderá ser compatível com leitores de Blu-ray.
Os discos são feitos em policarbonato e possuem milhões de micro espelhos (hologramas) moldáveis estampados na superfície, onde os dados são gravados por um laser parecido com o do Blu-ray. Porém, ainda existe uma desvantagem a ser superada: levaria um dia inteiro para gravar todos os 500 GB com os gravadores que existem atualmente.
A empresa afirma que o disco não deverá ser um concorrente para suceder o Blu-ray, como promete o BDXL ou a mídia da TDK, mas sim uma unidade de armazenamento em massa para back-up, já que pode manter os dados íntegros por mais de 100 anos. Ainda não existe qualquer previsão de quando as mídias holográficas irão para o mercado.
O novo disco da General Eletric utiliza milhões de micro hologramas estampados para armazenar os dados e poderá ser compatível com leitores de Blu-ray.
Os discos são feitos em policarbonato e possuem milhões de micro espelhos (hologramas) moldáveis estampados na superfície, onde os dados são gravados por um laser parecido com o do Blu-ray. Porém, ainda existe uma desvantagem a ser superada: levaria um dia inteiro para gravar todos os 500 GB com os gravadores que existem atualmente.
A empresa afirma que o disco não deverá ser um concorrente para suceder o Blu-ray, como promete o BDXL ou a mídia da TDK, mas sim uma unidade de armazenamento em massa para back-up, já que pode manter os dados íntegros por mais de 100 anos. Ainda não existe qualquer previsão de quando as mídias holográficas irão para o mercado.
sexta-feira, 15 de julho de 2011
13:26 | Postado por
Amauri |
Editar postagem
A computação nas nuvens, em inglês chamada de “cloud computing”, é uma tendência na internet do futuro. Chegou aos ouvidos de muita gente em 2008, mas tudo indica que ouviremos esse termo ainda por um bom tempo.
"O conceito de computação em nuvem refere-se à utilização da memória e das capacidades de armazenamento e cálculo de computadores e servidores compartilhados e interligados por meio da Internet, seguindo o princípio da computação em grade.
O armazenamento de dados é feito em serviços que poderão ser acessados de qualquer lugar do mundo, a qualquer hora, não havendo necessidade de instalação de programas x ou de armazenar dados. O acesso a programas, serviços e arquivos é remoto, através da Internet - daí a alusão à nuvem. O uso desse modelo (ambiente) é mais viável do que o uso de unidades físicas.
Num sistema operacional disponível na Internet, a partir de qualquer computador e em qualquer lugar, pode-se ter acesso a informações, arquivos e programas num sistema único, independente de plataforma. O requisito mínimo é um computador compatível com os recursos disponíveis na Internet. O PC torna-se apenas um chip ligado à Internet—a "grande nuvem" de computadores—sendo necessários somente os dispositivos de entrada (teclado, mouse) e saída (monitor)."
Origem: Wikipédia, a enciclopédia livre.
Alguns exemplos de cloud computing:
• Google Maps: é o parente mais próximo e simples do Google Earth. Através dele você também pode navegar para qualquer lugar do mundo digitando uma referência. Além disso, permite que você crie trajetos para andar de carro pela sua cidade partindo de um ponto e tendo uma certa localização como destino.
• Google Docs: com uma porção de ferramentas no estilo Office, você pode acessar um ótimo processador de textos (como o Word), uma ferramenta para planilhas (como o Excel) e até mesmo criar e visualizar apresentações de slides (como o PowerPoint).• Microsoft office online: Agora é possível armazenar, abrir e editar arquivos do Office em qualquer lugar do mundo, de qualquer computador com internet.
Algumas características da Cloud Computing
Uma das vantagens da Cloud Computing é a possibilidade de utilizar aplicações diretamente da internet, sem que estas estejam instaladas no computador do usuário. Mas, há outras significativas vantagens:
- na maioria dos casos, o usuário pode acessar determinadas aplicações independente do seu sistema operacional ou de hardware.
- o usuário não precisa se preocupar com a estrutura para executar a aplicação: hardware, procedimentos de backup, controle de segurança, manutenção, entre outros, ficam a cargo do fornecedor do serviço.
- compartilhamento de dados e trabalho colaborativo se tornam mais fáceis, uma vez que todos os usuários acessam as aplicações e os dados do mesmo lugar: a "nuvem". Muitas aplicações do tipo já são elaboradas considerando essas possibilidades.
- dependendo do fornecedor, o usuário pode contar com alta disponibilidade, já que, se por exemplo, um servidor parar de funcionar, os demais que fazem parte da estrutura continuam a oferecer o serviço.
- o usuário pode contar com melhor controle de gastos. Muitas aplicações em Cloud Computing são gratuitas e, quando é necessário pagar, o usuário só o fará em relação aos recursos que usar ou ao tempo de utilização. Não é, portanto, necessário pagar por uma licença integral de uso, tal como acontece no modelo tradicional de fornecimento de software.
Assinar:
Postagens (Atom)
Seu Sistema Operacional é...
TEMAS
- Cursos (1)
- Downloads (5)
- Eventos (3)
- I (1)
- Interessante (11)
- Licenciatura (1)
- Pascal (17)
- Tutoriais (2)
- Update Now (6)
- Visualg (3)