Pesquisar este blog

terça-feira, dezembro 20, 2005

Prof Allan Rangel Barros de Oliveira Barros

Lançado computador de R$ 799 com acesso à web

[15 Dezembro 17h40min 2005]

A fabricante de computadores FIC, o provedor de internet iTelefonica e a empresa americana de microprocessadores AMD uniram-se para lançar um computador com preço acessível no mercado brasileiro. O computador, chamado de "FIC Conectado", possui monitor de 15 polegadas, teclado, mouse e os principais programas já instalados (processamento de texto, planilha e visualização de imagens).

Promocionalmente, o cliente ainda receberá um cartão de memória de 32 MB, capacidade de armazenamento 20 vezes maior do que um disquete. Também participam do negócio a Samsung (monitor), Aymoré e Losango (financiamento) e Submarino (canal de vendas e operador logístico).

O equipamento custa R$ 799,00 à vista, mas pode ser financiado em 36 prestações de R$ 42,90. A principal função da máquina será permitir o acesso discado à internet. Segundo os criadores do novo computador, este será o equipamento mais barato do mercado. Cada uma das parcelas do financiamento representa pouco mais da metade do valor da menor prestação cobrada hoje no mercado.

O FIC Conectado está disponível em todos os municípios do Estado de São Paulo atendidos pelo provedor de internet. "A Telefônica pretende, com esse projeto, atrair mais de cinco milhões de famílias paulistas que contam com uma linha telefônica mas ainda não acessam a internet", afirma Odmar Almeida Filho, vice-presidente de Negócios Residenciais da Telefônica. "O projeto reúne a facilidade de acesso do iTelefonica com um equipamento acessível em termos de preço e sem complexidade técnica", afirmou o executivo. em nota à imprensa.

"O equipamento é parte do projeto global ´50X15´ da AMD, que tem como meta conectar 50% da população mundial à internet até 2015", acrescentou José Antonio Scodiero, vice-presidente de vendas e marketing para a América Latina da AMD.

A solução oferecida pelo iTelefonica permite uma série de serviços e facilidades, como recebimento e envio de e-mails, realização de pesquisas escolares e de trabalho, acesso a bate-papos, blogs, além de pagamentos e compras via internet.

Fonte: www.noolhar.com

quinta-feira, dezembro 08, 2005

Prof Allan Rangel Barros de Oliveira Barros

Como Montar uma Rede Wireless - ATENÇÃO CASO VOCÊ NÃO SEJA DA ÁREA DE REDES E ACHAR CHATO ESSE ASSUNTO VEJA OS DEMAIS ROLANDO A PÁGINA!
QUERO LEMBRAR QUE ESTE BLOG TEM PROPÓSITOS DE INFORMAÇÃO E DICAS! GOSTA DE MESCLAR ITENS TÉCNICOS COM OUTROS POPULARES.
08.12.2005
Redes Wireless estão em franco crescimento. Novas redes são implementadas, com soluções mais rápidas, abrangentes e confiáveis. Até pouco tempo, elas eram caras e difícil de usar. Ouvimos
muitos casos de empresas pagando milhares de dólares, só para descobrir que o alcance de seu equipamento não era suficiente para seu escritório. Este artigo responde às três perguntas mais comuns de primeiros usuários de redes sem fios: o que devo comprar, o que preciso fazer, e como colocar tudo funcionando junto.

Redes Wireless estão em constante progresso, entretanto o princípio básico é o mesmo. Em vez de usar cabos para transmitir informações de um ponto até outro (ou muitos), usa-se sinais de rádio.

A comparação mais íntima que pode ser feita é com o telefone sem fio a 2.4GHz. De fato, a tecnologia usada é quase idêntica, e quanto aos benefícios, nem se fala. Com uma rede sem fios um computador ou laptop podem ser movidos em qualquer lugar dentro do alcance da rede sem a interrupção de serviço de rede. Isto significa que se você tiver um laptop, você pode ficar na sua poltrona favorita e acessar a Internet ou acesso sua rede sem arrastar um fio através da
sala.
O que Comprar – padrões de rede


Há três padrões principais para as Redes Wireless: 802.11b, 802.11a e 802.11g. Cada padrões tem suas vantagens e desvantagens. Ao selecionar um padrão em rede você deve considerar cuidadosamente suas necessidades em termos de alcance, layout do prédio, e custos.

802.11B O tipo de Rede sem fios mais popular é o 802.11b. Tem uma velocidade de máximo de 11 Mbps, com um alcance de máximo operacional de 100 metros em ambiente fechado e 180 metros em
uma área aberta. A distância do ponto de acesso determina diretamente a velocidade da conexão. A 20 metros a velocidade é normalmente 11 Mbps. Em alcances de 70-110 metros a velocidade pode cair para 1 Mbps ou abaixo que pode causar esporádica perda de sinal, bem como lentidão na conexão.

802.11b opera na popular faixa de freqüência de 2.4GHz, que pode causar problemas com telefones sem fio e fornos microondas em raras ocasiões.

802.11A Em comparação com 802.11b, 802.11a é mais rápido, porém os equipamentos usandos este padrão são freqüentemente mais caros. Fornece um aumento significante em velocidade (até 54 Mbps) mas com um alcance operacional menor. Em distâncias superiores a 30 metros há redução na velocidade, mas em alcance menores fica entre 22 e 40 Mbps. Este equipamento utiliza a freqüência de 5GHz, que significa mais confiabilidade, especialmente se você tiver outras redes
de Rede sem fios na mesma área.

802.11G Uma nova linha de produtos de fabricantes de rede sem fios combina os conceitos de 802.11a e 802.11b. Conhecida como Tecnologia “G” (802.11g), apresenta a velocidade de um
equipamento 802.11a, mas é completamente compatível com as rede 802.11b existentes. É ligeiramente mais barato que a tecnologia 802.11a, mas ainda usa a 2.4 faixa de GHz, então ele pode ainda causar problemas com outros dispositivos. É uma pontes entre 802.11a e b, ao mesmo tempo em que fornece uma versão aperfeiçoada para uma rede “b” existente. O alcance é o mesmo que 802.11b. Este padrão não é compatível com 802.11a.

É recomendável que você adquira todos os equipamentos para sua rede Wireless de um único fabricante. Muitos oferecem soluções integradas que dão maior alcance e velocidade uma vez que
todos os componentes usam a mesma tecnologia e boa parte dos processos de verificação e compatibilização podem ser otimizados. Equipamentos das marcas D-Link e LinkSys oferecem essas características, com alguns chegando a desempenho superior ao de redes cabeadas a 100Mbps.

Layout de Rede - De que eu preciso?


A primeira coisa nós vamos enfocar é, “O que eu preciso, exatamente?” Isto pode ser uma pergunta complicada. Muitas pessoas migram para Rede sem fios por sua relação custo-benefício comparada a uma rede cabeada. Em algumas instâncias uma rede cabeada é cara demais para se instalar. Embora uma rede de Rede sem fios tenha bom custo-benefício, há assuntos que precisam ser considerados como alcance de sinal, velocidade de rede e interferência.

Redes Wireless para dois sistemas: Com somente dois computadores, um ponto de acesso não é necessário. Tudo que você precisa é um adaptador de Rede sem fios para cada computador. Este tipo de instalação é chamado Adhoc, e é facilmente configurada.

Nota: Se você desejar compartilhar uma conexão de internet, você pode usar um proxy para realizar isto. Também, Windows ME, 2000, e XP oferecem recursos de compartilhamento básico de Conexão à Internet embutidos.

As dimensões físicas da área e o número de computadores que precisam de acesso de rede determinam o tipo de equipamento de Rede sem fios necessário. Se todos os computadores estão em uma área pequena, digamos um escritório não mais do que 40-50 metros metros, com algumas paredes, tudo de que se precisa são: (1) adaptador de rede de Rede sem fios por computador e (1) Access Point Wireless (ou Roteador se uma conexão de banda larga precisa ser compartilhada). Para configurar a rede, instale um adaptador de rede de Rede sem fios em cada computador e ligue o Access Point ou Roteador em uma posição central.

Um assunto importante que deve ser tratado quando instalando uma rede de Rede sem fios é a localização e o material de paredes. Paredes podem cortar o sinal de Rede sem fios pela metade, ou até mais. Isto é crucial quando se decide onde colocar o Roteador ou Access Point. No diagrama acima nenhum computador está a mais de 30 metros do Access Point, com poucas paredes para degradar o sinal. Este ambiente é preferível, mas nem sempre possível.

Fatorando o número de PCs A primeira pergunta a fazer é: Quantos computadores se ligarão a esta rede sem fios? Se você já tiver uma rede cabeada, você precisará criar uma rede Híbrida, que é discutida à frente.

Redes Wireless para três ou mais sistemas Se a rede vai conter mais então dois sistemas então uma Ad hoc rede não vai ser uma boa solução. Com três ou mais sistemas um Access Point ou
Roteador devem ser colocados em uma localização central com repetidores ou Access Points adicionais extendendo o alcance tanto quanto preciso. Quando trabalhar com redes sem fios, sempre tente usar todos os equipamentos de uma única marca! Isso prevene muitas dores de cabeça mais tarde (e exige muito menos configuração).

Estudo de Caso:
Instalação de uma LAN de Rede sem fios de quatro computadores

Você tem quatro (4) computadores em sua rede, você não tem conexão de banda larga à Internet e todos os computadores estão a 30 metros de distância um do outro. Para este tipo de rede o equipamento seguinte é necessário: (1) Access Point Wireless e (4) Adaptadores de Rede Wireless.

O NICs pode ser USB (externa), PCI (interna), ou, no caso de um laptop, PCMCIA. Os adaptadores Wireless USB são o tipo mais versátil nesta situação uma vez que sua antena pode ser posicionada longe de qualquer obstáculo fornecido pelo PC propriamente ou a escrivaninha. O desempenho de
NICs USB e PCI são aproximadamente idênticos, porém na maioria das situações a USB uma vai ter
uma melhor linha de visão com o Access Point ou Roteador. Quanto melhor a Linha de Visão, mais alta a velocidade.
Quando comprar equipamento de Rede sem fios lembre-se sempre de certificar-se de que todos seja do mesmo tipo de WiFi. O mais comum é tipo 802.11b, e a maior parte de equipamento é compatível com este padrão. Uma vez você tem comprado um Access Point básico e seus quatro adaptadores de rede, é hora de começar!

Passo 1: Ache um local apropriado para o Access Point
Para alcançar o melhor sinal com a menor interferência da mobília e dispositivos elétricos mantenha o Ponto de Acesso a cerca de 1,60m de altura. Coloque o Access Point em uma estante, armário, ou monte-o na parede.

Advertência: Nunca instale um Access Point dentro de um espaço fechado. Isso causa muita degradação de sinal e poderá causar aquecimento do AP. Mantenha-o em uma área aberta, se possível.

Passo 2: Instale os adaptadores de rede Wireless Siga as instruções da instalação para os adaptadores de rede. A instalação é geralmente simples especialmente quando você usa todos os quipamentos do mesmo fabricante.

Passo 3: Teste o sinal e reposicione o AP se necessário Cada adaptador deve ser conectado
ao Access Point que a instalação é concluida (reinicie o computador). A maioria de fabricantes de
Rede sem fios incluirá um pequeno medidor de sinal com seus adaptadores. Vá para cada sistema e passe alguns minutos observando o medidor para ter certeza de que o sinal é fixo e alto. Se ele tender a flutuar ou é muito baixo, então talvez você precise mover o Access Point para mais perto. Às vezes alguns centímetros fazem uma grande diferença. A localização ótima de um Access Point é aquela onde você consegue a melhor qualidade e força do sinal para todos os computadores.

Misturando Redes Wireless e Cabeadas, uma rede Híbrida

Se já há uma rede cabeada e somente alguns computadores precisam conectar via Wireless o processo é semelhante. Quando escolher um Access Point ou Roteador, certifique-se de que ele venha com algumas portas LAN (a maioria tem portas 10/100 embutidos). Eles se tornarão eficazes concentradores na sua rede com um mínimo de configuração. Então, configure seus computadores da Rede Wireless para acessar o AP ou Roteador, e você terá uma rede híbrida.

Rotear uma conexão em banda larga através de sua rede Wireless é quase exatamente o mesmo que com uma rede cabeada. A maioria de Roteadores Wireless têm uma interface de administração baseada em web-Browser, que premite a configuração da conexão de banda larga e seu compartilhamento através da sua rede. Plugue seu modem de banda larga em seu roteador Wireless, configure o roteador e surfe à vontade.

Extendendo Alcance, Layout Avançado de Rede

Às vezes o plano de rede básica não funciona devido ao alcance, obstáculos como paredes e lajes, ou o layout geral do ambiente. Quando isto acontecer existem algumas opções e todas elas têm várias vantagens e desvantagens.

Se o alcance só precisa extender-se por 50 ou 70 metros, um ou mais Access Points Repetidores podem ser ligados à rede. Estes pequenos equipamentos funcionam como um Access Point trabalhanem um modo especial que permite a integração de dois ou mais Access Points em uma única rede. Para configurar o repetidor, você deve plugá-lo à sua rede física através de um cabo Ethernet Categoria 5E e configurá-lo. Após essa configuração você poderá movê-lo para seu local definitivo. Os repetidores podem normalmente dobrar o alcance efetivo da rede Wireless, permitindo que mais computadores sejam ligados à rede. Os repetidores podem ser adicionados conforme a necessidade para extender a rede com algumas limitações.
Vimos:
Rede de Redes Wireless básica com Repetidor:
Rede expandida com vários Repetidores:
Cabeando mais de uma Rede Wireless Mas, suponha a rede precisa atender vários andares, ou que haja duas ou mais redes sem fio tão separadas que vários repetidores precisam ser alinhados para cobrir a distância. Quando isso ocorrer, a opção é ligar os access points através de uma
rede cabeada.Os repetidores são muito úteis, mas às vezes o cabeamento metálico ou por fibra óptica é a única solução possível. Os princípios básicos de Rede sem fios ainda se aplicam, mas existem algumas
mudanças a fazer.

O melhor caminho para fazer isto é para instalar todas as redes sem fios separadamente, então executar o cabeamento em Categoria 5E para cada um dos Access Points de longo alcance que precisar conectar. Os Access Points exigirão um mínimo de configuração, mas isso não é difícil e sempre vem incluida na documentação técnica do equipamento. O melhor uso para isto é para prédios
de vários andares, uma vez que o sinal simplesmente não trafegará através deles. O diagrama abaixo de mostra a um exemplo deste tipo de expansão de Redes Wireless.

Conclusão
Uma coisa importante a lembrar sobre redes sem fios, como qualquer outro projeto de computadores é Planejamento. Não há nada pior que especificar os equipamentos, comprar tudo, só para ser parado por um problema inesperado. Minha sugestão é para trabalhar em um diagrama básico da área
para instalar a rede. Mapeie as distâncias entre cada computador e planeje a localização dos Access Points e Repetidores. Leve em conta as paredes e outros obstáculos.

Prof Allan Rangel Barros de Oliveira Barros

Prof Allan Rangel Barros de Oliveira Barros

Web 2.0: a nova internet é uma plataforma

Os empreendimentos na internet que deram certo pensam na web como uma plataforma, não como uma simples rede de computadores. Entenda esse novo conceito e o reconheça bem perto de você.

Quando ouvimos a pergunta "o que é internet?" a resposta está na ponta da língua: "é a rede mundial de computadores". Bem, a partir da Web 2.0 Conference , a internet deixou de ser uma rede mundial de computadores e se tornou uma plataforma.

Não, não... Nada mudou... A internet em si continua a mesma. O que mudou foi o nosso jeito de entendê-la, a partir do exame dos projetos de internet que deram certo.

Quando a internet começou – esta é a Web 1.0 – ela era feita de sites que publicavam conteúdo. Era uma forma digital de fazer exatamente a mesma coisa que a mídia impressa já fazia há séculos.

Com o amadurecimento da internet, as pessoas começaram a perceber que ela é muito mais que simplesmente publicação de conteúdo em sites. Percebemos que a internet poderia ser um meio de prestar serviços. Estes serviços são prestados através de programas. Estes programas rodam em uma plataforma: a própria internet.

Esta idéia de internet como plataforma é a essência da web 2.0. Embora a conferência realizada nos EUA tenha como objetivo rever a internet, em todo o material que eu li sobre isso não vi um trabalho para reconceituar a internet. Eu penso que isso seja essencial para entendermos a web 2.0.
Outro conceito para internet.

É necessário dar outro conceito à web, diferente de "rede de computadores". Eu sugiro o seguinte:

“A internet é uma plataforma onde rodam programas de gestão de informações”.

É só uma sugestão inicial para começar a discussão, a nossa discussão, sobre o que é a nova internet. É um conceito muito menos glamuroso que "a rede das redes" ou "rede mundial de computadores", mas é mais funcional, de acordo com os conceitos e objetivos da web 2.0.

Para entender este conceito vamos dividi-lo em três partes:
A internet é uma plataforma...

O que é uma plataforma? Talvez não seja o melhor, mas o mais popular exemplo é o Windows. De forma bem simples e superficial, a plataforma é o lugar onde os programas existem. Ela dá os elementos que os programas precisam para existir.

Como me ensinou meu amigo Eduardo Rosa, com toda didática e paciência que lhe é peculiar: se o software fosse um cachorrinho, a plataforma seria a casinha onde ele fica, a água e a comida, é tudo que ele precisa para existir.

No caso do Windows, por exemplo, a janela é o Windows que faz; o que está dentro dela é o programa que faz. Quem diz o que deve ser impresso é o programa, quem manda a informação para a impressora é o Windows, a plataforma. A internet é assim: um lugar, um ambiente, a plataforma.

Entender profundamente o que é plataforma, o conceito em si, é coisa para os cientistas da computação, mas a internet como plataforma é coisa para todos que se envolvem com ela. Portanto, vamos prosseguindo.
...onde rodam programas

Eu ainda me lembro como era legal poder ir tomar um café, conversar com uns amigos e ir ao banheiro enquanto eu esperava o Word abrir. Bons tempos aqueles em que o Word não abria quase instantaneamente como acontece hoje.

Um processador de texto, hoje, realmente não demanda muito processamento. Justamente por esta razão estão aparecendo serviços na web que fazem isso tão bem quanto ou melhor que os programas locais.

O melhor exemplo é o Writely. Mesmo tendo o Open Office instalado aqui em casa, eu estou usando o Writely. Isso porque com ele eu posso acessar ou editar este artigo de qualquer lugar do mundo, chamar pessoas para colaborar, publicar (com somente um clique) no meu blog, entre outras funcionalidades que só existem porque o programa está rodando na internet como plataforma.

Muito se tem dito, e eu mesmo disse, sobre Ajax (veja ao lado). Mas o Ajax é só um filho deste novo conceito de internet. O Ajax existe para viabilizar a existência de programas que têm a internet como plataforma. A mesma coisa com o RIA. É impossível, ou inútil, entender o que é Ajax sem pensar na web como plataforma.

Não é à toa que a Microsoft está fazendo o Atlas, uma ferramenta para ajudar os desenvolvedores a trabalhar com Ajax. Ela sabe que o futuro da internet são programas e serviços. E ela mesma está correndo atrás do prejuízo e fazendo todo tipo de investimento em programas na internet (os estadunidenses gostam de chamá-los de "live software").

Qualquer site, na verdade, é um programa de computador. Mas mesmo sabendo disso, durante toda a era da web 1.0 (e a maioria de nós ainda estamos nesta era) os desenvolvedores fizeram programas para mostrar páginas de conteúdo, copiando a mídia impressa. Eles não perceberam que a web dá muito, muito, muito mais recursos de gerenciamento de informações que uma revista ou livro.

Na web 2.0 o usuário não somente lê a informação.
Ele envia informações ao software que poderão ser lidas por outros usuário (comentários em matérias, scrapbook do orkut, blog, fotolog etc), ele pega as informações para usar para outros fins em outros softwares (clipping de uma notícia em um blog), ele transforma a informação (Wikipedia), ele exibe e recebe a informação do jeito que ele quiser (RSS, XSL, newsletter), ele compartilha informações instantaneamente (Messenger), enfim, o único limite que existe para o usuário interagir com o conteúdo é a nossa criatividade.

Seria bom parar de pensar em criar um site e começar a pensar livremente num programa que entregue ao usuário a informação de uma forma eficiente.
...de gestão de dados

O buscador do Google é um programa fantástico. Ele tem recursos de avaliação de sites que mostram os resultados conforme a relevância, é muito rápido, é multimídia, etc., etc... Mas pense comigo: o que ele seria sem o banco de dados que tem? Como diria o Caetano Veloso, ele seria a superfície iridescente da bola oca. Seria uma coisa fantástica e maravilhosa, mas completamente inútil e sem sentido.

Sobre isso, Tim O'Reilly diz, na sua explicação sobre web 2.0 : "O valor de um programa é proporcional ao tamanho e dinamismo do conteúdo que ele ajuda a administrar".

Os estadunidenses da Web 2.0 estão repetindo bastante: content is king. Realmente eles estão certos, o conteúdo é o rei da nova internet.

Para entender a internet como plataforma é necessário separar o que é a informação do que é o software. Para começar um empreendimento web as pessoas deveriam se fazer duas perguntas:

1) Que tipo de dados nós vamos ter? E então fazer estratégias para adquirir estes dados, aproveitando todos os recursos que a internet dá, inclusive os usuários que freqüentam o site.

2) Como vamos mostrar estes dados ao usuário? E então desenvolver programas para mostrar os dados, preferencialmente sem predefinir um comportamento para o usuário mas fazendo o software de forma que o usuário possa modificá-lo e receber somente a informação que ele quiser, do jeito que ele quiser
Dados têm valor

Eu me lembro de ter o maior orgulho de montar meu próprio computador, comprando cada peça, e depois colar o adesivinho "Intel inside" e "Asus", para dizer que meu computador era o máximo. Na internet 2.0 esses adesivinhos serão dados.

Um bom exemplo disso é o Maplink . Ele usa o software do Google Maps para mostrar fotos de satélite da região que você está procurando (e isso por si só já é um ótimo exemplo de internet como plataforma). Mas o Google Maps, por sua vez, não tem os dados, não é o dono das fotos de satélite, o dono –no caso do lugar onde eu estava olhando – chama-se Digital Globe. Veja só, a Digital Globe nem oferece o software que eu estava usando, ela só tem os dados.

No futuro, este tipo de negócio será muito comum e muito lucrativo. Uma empresa se especializa em ter os dados. A outra compra a base de dados, faz o seu próprio software para entregar esses dados de forma eficiente ao usuário e vende o serviço.

Se o nosso modo de pensar em internet for separando o que é o dado do que é o programa que o exibe, a experiência do usuário se torna muito mais rica. O Google leva isso tão a sério que criou o Google Base . O Google Base é o seguinte: se determinado dado não está em nenhum site na internet, qualquer um pode inseri-lo diretamente na base de dados do Google e assim esse dado poderá ser encontrado numa busca sem estar em nenhum site.

Mas pense grande, dados não são apenas textos e artigos. No Orkut (e agora também no Uolkut) por exemplo, o dado principal é o perfil de uma pessoa que se conecta com o perfil de outra. No mesmo Orkut há as comunidades, que ainda que não tenham nenhum conteúdo (algumas têm fóruns muito bons, outras nem têm fórum) são dados importantes por serem uma reunião de perfis. Num Fotolog ou no Flickr, o dado são as fotos. No Itunes ou na Rádio UOL os dados são as músicas.
Então a internet vai substituir o desktop?

Muita gente já pensou em fazer computadores que não tenham nada instalado localmente, os chamados terminais burros. Seriam computadores que só rodariam serviços a partir de um servidor. Mas, pelo que se pode perceber por aí, isso ainda está fora de cogitação. Programas pesados como o Photoshop e o 3D Studio e jogos como Half Life 2, provavelmente jamais serão totalmente web.

É claro que a capacidade dos computadores continuará aumentando loucamente, mas a necessidade de processamento dos programas e games está aumentando proporcionalmente. Portanto, pelo menos nos próximos tempos, desktop e web continuarão vivendo juntos, cada um no seu lugar.

Mas a internet pode ser a plataforma que conecta os games para jogos online, que traz extensões e plugins a programas locais, e por aí vai. Cada plataforma na sua especialidade, mas elas jamais estarão totalmente separadas novamente – principalmente depois do Windows Vista .
Em vez de rede de redes, plataforma de plataformas.

O mais interessante é que a internet não é somente uma plataforma, é a plataforma das plataformas.

Complicou? Vou tentar explicar. O Google tem um excelente software que faz busca. Usando esta função ele pôde fazer do Gmail um programa de e-mail com uma busca realmente competente e fácil, tão boa que você nem precisa mais ordenar seus e-mails por nome ou por bytes ou por qualquer outra coisa, basta fazer uma busca e você acha o que quer.

O Google tem muitos programas e todos eles, além de viverem na plataforma que é a web, vivem na plataforma que é o Google, com funções compartilhadas aos vários programas que ele tem e com interatividade entre os programas, serviços e modelos de negócio. Por exemplo, o messenger Google Talk pega automaticamente a sua lista de contatos do Gmail.

Outro bom exemplo é o Yahoo. O Yahoo tem muitos serviços e programas. Eles criaram um serviço, o 360º , para consolidar em um só ambiente (ou plataforma), os vários programas como Yahoo Groups, E-mail, Blog, Fotolog, etc.

Assim o Google é uma plataforma, o Yahoo outra plataforma, os serviços da Microsoft outra plataforma, os do UOL outra... E cada plataforma tem individualmente o mesmo potencial de crescimento que a própria internet.

Pensando assim, na internet como uma plataforma onde rodam programas de gestão de informações, e não em uma rede de computadores ou um lugar onde se fazem simples publicações, os desenvolvedores, designers, publicitários e empreendedores envolvidos com a internet terão muito mais resultados.

Há muito, muito mais a se falar sobre este assunto (a nova internet), mas como eu acho que nem todo mundo vai chegar até este parágrafo, porque este artigo já está muito grande e a paciência das pessoas não costuma ser assim tão grande, eu vou parando por aqui.

Prof Allan Rangel Barros de Oliveira Barros

Entenda as tecnologias por trás dos processadores

O processador é a parte mais importante do computador, pois é ali onde será interpretado e executado uma série de instruções fornecidas pelos aplicativos (softwares) que você usa, como o sistema operacional e o editor de textos, por exemplo. Por isso é comum ouvir dizer que, quanto mais rápido o processador, mais veloz ficará sua máquina.

Apesar de o processador sozinho não ser responsável pela performance como um todo, é a partir dele que devemos começar a olhar quando pensamos em trocar de PC. Também conhecido como CPU (do inglês Central Processing Unit ou Unidade de Processamento Central), a velocidade do processador é medida pelo seu clock em GHz (gigahertz) ou, para as unidades mais antigas, em MHz (megahertz).

A taxa de clock
Cada hertz equivale a um "ciclo-por-segundo" ou, para entendermos melhor, uma "instrução-por-segundo". Logo, 100 Hz são 100 instruções/segundo. Como os processadores para PC trabalham com o prefixo mega (MHz), precisamos saber que equivale a um milhão de hertz. Ou seja, 100 MHz são 100 milhões de instruções por segundo. Mil megahertz (1000 MHz) equivalem a um gigahertz (1 GHz) que, por sua vez, significa um bilhão (!) de instruções por segundo.

Por que vale a pena entender a taxa de clock? Para entender que 1 GHz é uma quantidade absurda de processamento. O poder de fogo alardeado pela propaganda dos processadores mais caros é, quase sempre, subutilizado por 95% dos usuários que simplesmente não vão precisar nunca de tantos GHz ou, pior ainda, não trabalham com softwares onde haja demanda de vários GHz.

quarta-feira, novembro 16, 2005

Prof Allan Rangel Barros de Oliveira Barros

Spam cai 35% em um mês na web brasileira
Quarta-feira, 16 novembro de 2005 - 17:14

O número total de spams em outubro na web brasileira diminuiu 35% quando comparado ao mês de setembro, informou nesta quarta-feira (16/11) o Centro de Estudos, Resposta e Tratamento de Incidentes de Segurança no Brasil (CERT.br).
O número total de e-mails de propaganda indesejada processados neste período foi superior a 209 mil, volume cerca de 10% menor ao encontrado no mesmo período do ano passado (232.967). No mês de setembro, o número de spams foi de 317.672.
Até o final de outubro, tinham sido processados pouco mais de dois milhões de spams na web brasileira, pouco menos que o total de mensagens indesejadas detectadas durante todo o ano de 2004.
O relatório do CERT.br já está online e pode ser acessado por aqui.

quinta-feira, outubro 20, 2005

Prof Allan Rangel Barros de Oliveira Barros

Todo mundo está falando de WiMax ou pelo menos, já ouviu alguém falar.

A tecnologia WiMax (IEEE 802.16), que se encaixa na categoria de WMANs (wireless metropolitan area networks), promete levar acesso de alta velocidade aos pontos mais remotos, geralmente chamados de "last mile". Tudo isso, sem a presença de fios, ou seja, cabos telefônicos (ADSL), cabos coaxiais (cable-modems) e tudo mais que esteja relacionado à forma atual de se conectar à internet, passará a fazer parte do passado da comunicação digital, que hoje tem sua maior manifestação sob o nome de internet. Em outras palavras, qualquer pessoa em qualquer lugar, através de diversos tipos de aparelhos (seja um simples desktop ou notebook), poderá acessar a web em alta velocidade através do WiMax.

Só para exercitar, podemos imaginar uma cena onde o turista sobe até o Cristo Redentor, abre seu notebook e inicia uma videoconferência com a sua família que está na Grécia. Em outra cena, podemos imaginar o empresário bem sucedido acessando sua caixa corporativa de dentro de seu iate particular ancorado a oito quilômetros da costa. Para potencializar ainda mais essa dimensão, podemos nos lembrar de que hoje, qualquer tipo de acesso móvel popular é feito através de hotspots Wi-Fi (alcance máximo de 300 metros em boas condições, com velocidade máxima de 108Mps*) ou utilizando a cobertura das redes de telefonia celular, que começam a dar os primeiros sinais de 2.5 e 3G, dependendo do país ou região. Outras tecnologias wireless para transmissão de dados também são amplamente empregadas no "abastecimento" de dados empresarial ou residencial. A Motorola, por exemplo, já explora intensamente a comercialização e difusão de sua tecnologia proprietária chamada Canopy, mas atualmente, nenhuma tecnologia permite tamanha cobertura e velocidade de acesso a custos tão baixos como é esperado com a chegada do WiMax.

A Intel é uma das principais defensoras e colaboradoras no desenvolvimento do WiMax (padrão 802.16 do IEEE). Até a Motorola, que já aposta fichas no Canopy, também participa do WiMax Forum. Todos sabem que o WiMax terá, com certeza, um grande impacto em nosso dia a dia. O envolvimento intenso de gigantes como a Intel e Motorola é uma prova significante disso. Só não se sabe exatamente quando e onde essa tecnologia vai estar disponível comercialmente.

Fatos e notícias podem nos ajudar no esbôço de algumas suposições. Recentemente, a Intel divulgou que, através de sua tecnologia, notebooks deverão ser compatíveis com WiMax até o início de 2006. Vale lembrar que a própria Intel desenvolveu e atualmente comercializa a tecnologia chamada Centrino™, que dá acesso Wi-Fi 11g/b à maioria dos notebooks comercializados hoje. Recentemente, a Intel começou a comercializar em larga escala o seu chip com codenome "Rosedale". O Rosedale, na verdade, é o system-on-a-chip (SoC) compatível com o 802.16-2004 que a Intel desenvolveu para que fabricantes possam produzir equipamentos compatíveis com a tecnologia WiMax. Logo em seguida, a Fujitsu também anunciou a produção em larga escala de seu SoC MB87M3400, que custa US$45 em lotes de mil.

Segundo a Intel, o surgimento do WiMax será divido em três estapas:

Na primeira, ainda no primeiro semestre de 2005, usuários poderão ter acesso através de de pontos "fixos" com antenas do tipo "outdoor". Nessa fase, aquele sítio do seu amigo passará a ter acesso broadband. O padrão para esse tipo de acesso é o 802.16-2004.

Na segunda etapa, provavelmente, no primeiro semestre de 2006, usuários terão acesso através de antenas do tipo "indoor" (isso significa que o seu próximo provedor de internet poderá ser wireless).

Na terceira e última fase, com o padrão 802.16e, a total mobilidade e portabilidade será realidade. Nessa fase, todos poderão acessar a internet com total liberdade de movimento, como por exemplo, a partir de um carro em movimento na rodovia.

Podemos dividir a história da internet em antes e depois do WiMax. Antes, as pessoas só podiam acessar a internet através de pontos físicos pré-estabelecidos, como cyber-cafés, salas de aeroporto com cobertura Wi-Fi ou através do computador residencial. Depois do WiMAX, as pessoas poderão acessar a web a partir de qualquer lugar: do camping, na rodovia, do sítio ou do Cristo Redentor. A internet, ou conectividade à mesma, passará a fazer parte de nossas vidas da mesma forma que um simples relógio de pulso faz. Isso, graças às novas tecnologias sem fio que hoje nos permitem carregar smartphones, notebooks e handhelds compatíveis com elas.

Alguns países, como a Coréia do Sul, Inglaterra e China, são considerados alvos principais para a implementação de redes WiMax. Pilotos de WiMax já estão em funcinamento nos cinco continentes.


Foto: Nasa

Se você acha que na China só tem gente nas áreas iluminadas, você está enganado. As áreas iluminadas são apenas os principais centros (Xangai, Hong Kong e Pequim). Empresas como a China Motion Telecom e Shenzhen Powercom não estão no WiMax Forum à toa. A Intel, juntamente com a Alvarion e China Unicom, já avança numa íntima relação com as autoridades locais, que tem como objetivo tornar o 802.16a o padrão para acesso de banda larga sem fio no país. Os pilotos em andamento em 7 cidades chinesas mostram bem isso.

A foto nos dá uma dimensão aproximada dos principais aglomerados urbanos existentes no mundo atual. Podemos facilmente notar a densidade da costa leste americana, Europa e chegando ao extremo no Japão, onde o país inteiro está iluminado. A foto acima também pode ser interpretada da seguinte forma: atualmente, a internet está mais presente nas áreas com maior iluminação. As áreas escuras representam altos custos de investimento em infra-estrutura para levar internet através das formas tradicionais, via cabo/fibra ótica ou rádio proprietário.

Note a quantidade de áreas escuras, onde provavelmente, a internet de banda larga ainda não chegou, pois nem todas as empresas de telecomunicações estão dispostas em investir em milhas de cabeamento de fibra-ótica terrestre, marítmo ou rádio para abastercer uma pequena cidade do interior com pouco mais de mil habitantes.

Com a internet popular de alta velocidade via rádio, as chances de termos acesso rápido e de qualidade nos pontos mais extremos do planeta aumenta consideravelmente.

No início, o WiMax não deverá competir diretamente com o acesso via cabo ou discado, pois o WiMax será usado para cobrir o "last mile", onde o cabo dificilmente chegará. Regiões rurais ou remotas serão as principais beneficiadas e podem ser consideradas os principais "alvos" do WiMax. A British Telecom, por exemplo, já realiza testes em regiões rurais da Irlanda. Não faz muito sentido oferecer o WiMax num cenário onde boa parte das residências ou empresas já acessam a internet através de cabos. Por isso, muito provavelmente, o WiMax caminhe do campo em direção aos grandes centros.

Recentemente, a Intel demonstrou o funcionamento de uma rede WiMax na cidade de La Vegas. Para fazer tal demonstração, a Intel cobriu uma área de 800 km² com o sinal. Era possível captá-lo com um equipamento especial no meio do deserto.

Na última vez em que conversei com o alpinista Waldemar Niclevicz, ele pensava em como viabilizar a transmissão de sua próxima aventura através de um link de satélite.

WiMAX, o Everest lhe aguarda

terça-feira, outubro 18, 2005

Prof Allan Rangel Barros de Oliveira Barros

Accor Tour reduz custos em 35% após adoção de VPN
"HOTÉIS"
A solução encontrada pela Accor Tour, pertencente ao Grupo Accor, atuante no setor de hotelaria, turismo e serviços, para reduzir custos de TI e manter a comunicação entre matriz e filiais, foi a substituição das conexões de frame relay por rede virtual privada.
O retorno sobre o investimento ocorreu dois meses após o fim da implementação da solução e os gastos mensais de comunicação foram reduzidos em 35%.

Com apenas dois anos de vida, a empresa percebeu a necessidade de expansão da rede e conta que o VPN se adequou ao orçamento, às exigências de qualidade e ainda permitirá sensível ganho de segurança na informação, já que haverá menos redundância na conexão.
A matriz está sediada em São Paulo e os escritórios interligados ficam localizados no Rio de Janeiro (RJ), Campinas (SP) e São José do Rio Preto (SP), onde fica o fornecedor do software de gestão (ERP).

Antes do projeto, a Accor Tour afirma que era necessário uma semana para atualizar o software de gestão, e que hoje isso acontece de forma automática. Com a redução de custo da solução, foi possível criar links redundantes que garantem a segurança dos dados, já que se um link cai, o outro assume automaticamente.

No projeto, que foi desenhado e implantado em apenas 15 dias pela integradora NetMicro, foi empregada a tecnologia ADSL (via internet).
Além da solução VPN, uma solução composta por software, hardware e serviços sob demanda, o Office On demand, também foi usado. Esta solução é usada por 40 usuários, mas existe o interesse de expandir para as filiais e outras empresas do Grupo.


Prof Allan Rangel Barros de Oliveira Barros

TI nas mãos de - "OUTSOURCING"
Publicada na edição de outubro de 2005


Fornecedores, pedidos de propostas, vendas, contas a pagar, folha de pagamento... Não é fácil gerenciar bem todas as áreas que estão associadas ao dia-a-dia de um negócio. Para centrar seus esforços na atividade principal, o chamado core business, é cada vez maior o número de empresas que recorrem à terceirização de atividades, com destaque para a área de tecnologia da informação. Segundo dados da consultoria IDC, o mercado de outsourcing de serviços de tecnologia e telecomunicações movimentou mais de 4 bilhões de reais no Brasil em 2004. “E deve encerrar 2005 com crescimento de 16,6% em relação ao período anterior”, destaca Mauricio Monteiro, analista sênior de mercado da IDC para serviços de TI na América Latina.
Prática adotada inicialmente pelas grandes empresas, a terceirização ganha corpo também entre o mercado de pequenas e médias companhias. “O outsourcing é uma ferramenta estratégica, que oferece agilidade, flexibilidade, escalabilidade e inovação para pequenas e médias empresas”, destaca Cássio Dreyfuss, vice-presidente de pesquisa do Gartner para a América Latina. Segundo ele, a terceirização está se firmando como uma prática. “Deixou de ser um quebra-galho”, completa.

Prof Allan Rangel Barros de Oliveira Barros

Jovem cria vírus para ter fama em comunidade online
Terça-feira, 18 outubro de 2005 - 12:02


Com o objetivo de se tornar um dos membros mais populares da comunidade virtual MySpace.com, um adolescente norte-americano utilizou uma praga para explorar uma brecha de segurança do website para fazer com que outros membros o adicionassem automaticamente às suas listas de contatos.
O adolescente de 19 anos, que estava registrado sob o apelido de "Samy", escreveu um código malicioso em seu perfil descritivo e, toda vez que sua página pessoal fosse acessada, o código era executado na máquina do outro internauta e o perfil de Samy era adicionado automaticamente à lista de contatos da vítima.

"Esse é um tipo de ataque aos usuários do website, mas que utiliza o próprio website como meio", disse Jeremiah Grossman, Chief Technical Officer (CTO) da WhiteHat Security.
Após o usuário passar pela página de Samy, o código da praga criava uma cópia de si mesmo no perfil da vítima, além de escrever a frase "Samy é meu herói" na sua própria descrição.
Por causa da popularidade da MySpace - a comunidade contava com 32 milhões de membros e 9,5 bilhões de visualizações de páginas em setembro, fazendo do portal o quarto mais popular de toda a web, segundo a comScore Media Metrix - a propagação do worm foi exponencial.
Em seu website pessoal, Samy afirma ter liberado o código logo após a meia-noite do dia 04 de outubro. Treze horas depois, ele já contava com mais de 2,5 mil "amigos" na sua lista de contatos, além de outras 6,4 mil requisições para ser adicionado à lista de outras pessoas.
"Eu não precisava ser um profundo conhecedor de computação para saber que o efeito seria exponencial. Só não tinha idéia que o worm se proliferaria tão rapidamente", disse Samy em uma entrevista por e-mail.
"Quando vi duzentas requisições após oito horas, fiquei surpreso. Mais duas mil após poucas horas. Comecei então a ficar preocupado. Ao chegar nos 200 mil depois de mais algumas horas, eu não sabia o que fazer a não ser aproveitar o pouco de liberdade que me restava, então fui para a lanchonete e pedi um burrito. Quando voltei pra casa, já contava com mais de um milhão de pedidos", contou ele.
Samy afirma também ter recebido centenas de mensagens de usuários enraivecidos. Apesar de não ter sido contatado por nenhum funcionário da MySpace, que recentemente foi adquirida pela News Corp. por 850 milhões de dólares, a sua conta foi apagada do banco de dados.
O ataque se baseou na exploração de uma antiga e conhecida falha presente na grande maioria dos sites dinâmicos da web. Apesar de ter causado relativamente pouco dano, o código usado no MySpace faz surgir alertas para ataques que possam destruir portais ou mesmo roubar informações pessoais de usuários, mesmo dos que estejam protegidos por alguma rede corporativa segura, alertou a WhiteHat Security.
Em um ataque similar - porém mais sério - ocorrido durante o ano passado, hackers incluíram códigos maliciosos e se aproveitaram de um site especial do banco SunTrust. A página era utilizada pela instituição para enviar e-mails aos seus clientes, pedindo detalhes de cadastro para realizar atualizações de conta.
Ainda em 2001, uma falha no sistema do Hotmail permitia que algum usuário mandasse códigos maliciosos por e-mail a outro membro do serviço. Assim que a vítima abrisse a mensagem, o navegador de internet interpretaria o código nocivo como legítimo e, assim, roubaria dados pessoais localizadas na máquina para enviá-las ao malfeitor.
Quanto ao incidente com a MySpace.com, a comunidade ainda não se manifestou oficialmente.
Eric Lai - Computerworld, EUA

Prof Allan Rangel Barros de Oliveira Barros

Microsoft mostra terceiro beta do Windows Vista
Terça-feira, 18 outubro de 2005 - 09:21
IDG Now!
A Microsoft lançou uma nova versão do código do beta do Windows Vista que deixa mais claro como a gigante pretende melhorar o gerenciamento da rede e do PC como seu próximo grande lançamento em sistemas operacionais.


A nova versão também oferece aos testadores uma visão antecipada de características importantes do browser Internet Explorer 7.0.


O novo beta do Vista foi lançado para os clientes do Microsoft Technology Adoption Program na última quinta-feira (13/10).


Nesta segunda-feira (17/10), uma versão do software foi apresentada a cerca de 500 mil participantes do programa de desenvolvimento Microsoft Developer Network (TechNet) e do Windows Vista Technical Testing Program.


A Microsoft lançou o primeiro beta do Vista em julho e mostrou uma nova atualização no código no último mês.


Com o terceiro lançamento, o foco é nos recursos que interessam mais a usuários técnicos, segundo Mike Burk, gerente de produtos do time de clientes Windows.


Um novo software de diagnóstico permitirá detectar e resolver problemas na memória do computador e no disco rígido.


Será capaz, por exemplo, de avisar ao usuário quando o disco rígido começa a dar sinais de falha.


A versão mais recente do código também inclui uma função chamada Network Center (Centro de Rede), que permite ao usuário armazenar e gerenciar configurações de rede de forma centralizada.


O Network Center, que será parte de Painel de Controle do Windows, vai consolidar uma série de configurações e resoluções de problemas, segundo Burk.


O novo código do Internet Explorer deve mostrar aos testadores algumas novas funções do navegador, incluindo Quick Tabs, que mostram versões em miniatura de várias páginas em apenas uma janela; e Tab Groups, função que permite salvar essas miniaturas em um único grupo, na lista de favoritos.


Os usuários podem usar a função para abrir todas as páginas selecionadas ao mesmo tempo quando iniciar o browser.


Funções de zoom e capacidades melhoradas de impressão também estão entre as novidades do beta do IE 7.


O Windows Mobility Center (voltado a usuários móveis), o Media Player 11 e assinatura digital para documentos também estão entre os recursos da nova versão do código do Vista.


O lançamento comercial do produto está previsto para o segundo semestre de 2006 e, até lá, novas atualizações do beta devem ser lançadas mensalmente. Também está previsto um Windows Vista Beta 2 antes do lançamento do produto.


Mais informações sobre a atualização de outubro podem ser encontradas em http://www.microsoft.com/presspass/newsroom/winxp/WinVistaCTPFS.mspx .
IDG News Service/EUA - Robert McMillan

segunda-feira, outubro 17, 2005

Prof Allan Rangel Barros de Oliveira Barros

“O Linux não é coisa do PT”Luís Fernando Tinoco"


O presidente da Linux International, Jon “Maddog” Hall, passa 70% de seu tempo viajando pelo mundo para debater a adoção de software de código aberto. Em uma dessas peregrinações, no início de setembro, passou por São Paulo, participou de conferências e contou suas histórias a jovens de uma comunidade carente na zona sul da cidade. Disse ter aprendido a conter a alma revoltada que lhe rendeu o apelido de cachorro louco e, com voz mansa, deu suas razões para a defesa do software livre. A seguir, a íntegra da entrevista.
O uso do Linux em servidores cresce rapidamente. Qual a expectativa para o mercado de desktops?
Eu não antecipo alguma mudança enorme para os próximos cinco anos, como se o Linux fosse chutar a Microsoft para fora do mercado. Mas há boa esperança de que, em alguns anos, o Linux ocupe 30%, 40% ou 50% do mercado de desktops. Não posso prever quando, mas poderia acontecer em uma noite. Imagine se cada consumidor dissesse: quero ver o código, quero poder mudá-lo, não quero uma licença de uso, quero ser o dono do software.
O Windows tem 95% do mercado de desktops. Que razões o levam a acreditar em mudança?
As pessoas estão cansadas de ter de lidar com licenças de uso de software e dos ataques de vírus. Estão cansadas de ter de fazer upgrade de hardware toda vez que a Microsoft lança uma nova versão de software. Em países em desenvolvimento, as pessoas não podem comprar software e têm medo que a repressão à pirataria aumente. China, Tailândia e Malásia buscam software livre não só porque o custo das licenças destruiria suas economias, mas porque podem alimentar uma indústria própria.
O governo brasileiro vem adotando o Linux e isso gerou um debate no País. Qual a contribuição do senhor a essa discussão?
Vejo um crescimento mundial do uso governamental do Linux. Gostaria que todos pudessem separar em suas mentes a questão ideológica e percebessem que o software livre não está, de forma alguma, relacionado ao Partido dos Trabalhadores do (presidente) Lula. Não é uma questão política. Está ligado à economia e à criação de empregos. Quer dizer reduzir a quantidade de remessas de dinheiro para fora do país e negócios capazes de oferecer soluções melhores, por um custo mais baixo.
Não é uma questão ideológica.
Não. Não tem nada de comunismo. Quando faço palestras sobre software livre, lembro que, nos anos iniciais do software, todo software era entregue na forma de código aberto. As pessoas tinham softwares escritos para elas, pagavam por eles e eles pertenciam a elas. Elas não compravam o direito de usar um software que pertence a outros. Essa forma só começou entre 1977 e 80 e vem até hoje. Começou no mesmo período em que surgiram as lojas de computadores. Foi aí que as empresas começaram a empacotar software e colocá-los na prateleiras. Antes disso, se você queria um software, você achava alguém para criá-lo para você, assinava um contrato, pagava essa pessoa para escrevê-lo e, no fim, o software pertencia a você. No máximo, para ficar um pouco menos caro, você permitia que a pessoa também o vendesse a mais alguém. Mas o conceito de que a empresa que criou o software detém os direitos sobre ele e apenas permite que os clientes o utilizem não aconteceu antes deste período, de 1977 a 80.
A Microsoft ostenta estudos de custo total de propriedade, afirmando que o Linux, contados os gastos com consultoria, sai mais caro que o Windows.
O custo é importante. Se não pode pagar por uma solução, nunca poderá possuí-la. Mas deveriam se concentrar no valor do software, no que ele faz por você depois que o instalou. O código aberto permite que você modifique o programa para adequá-lo exatamente às suas necessidades. Tenho de acreditar que isso é mais valioso do que um software que você não possa modificar.

quinta-feira, outubro 13, 2005

Prof Allan Rangel Barros de Oliveira Barros

MEC visita uma das maiores universidades a distância do mundo

A cidade de Pequim, capital da China, sedia entre os dias 14 e 16 de outubro o Fórum Internacional de Educação China 2005, que contará com a participação do presidente da Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes/MEC), Jorge Guimarães, e do secretário de Educação a Distância do Ministério da Educação (Seed/MEC), Ronaldo Mota.

Os representantes do MEC tratarão dos termos do Programa Executivo de Cooperação Educacional entre os ministérios da Educação da China e do Brasil para os anos de 2006 a 2008. O acordo deverá ser formalizado entre os dois ministérios em novembro.

O titular da Seed também visitará as universidades de Pequim e do Petróleo da China. Mota se reunirá, ainda, com dirigentes do sistema de TV da Universidade da China, uma das maiores universidades a distancia do mundo, com mais de meio milhão de estudantes matriculados. Foi fundada em 1979.

Benefícios – De acordo com o secretário Ronaldo Mota, a visita à CTVU é uma maneira de conhecer melhor como a China vem trabalhando com a educação a distância. “A educação a distância está se disseminando pelo mundo, independentemente do grau de desenvolvimento dos países. Ela vem beneficiando parcelas muito significativas da população nos países que a adotaram”, disse Mota.
No Brasil, a educação a distância chegou em 1923 e vem sendo ampliada na medida da socialização dos meios de comunicação. Essa modalidade representa um grande potencial para a correção das desigualdades em um país de dimensões continentais e de tão grandes contrastes socioeconômicos. “Se bem explorada, a educação a distância representa um excelente mecanismo de combate à exclusão social”, destacou Mota. (Assessoria de Imprensa da Seed)

segunda-feira, outubro 10, 2005

Prof Allan Rangel Barros de Oliveira Barros

Objetivos específicos dos cursos para futuros gestores em Tecnologia da Informação

Atitudes e técnicas estratégicas para gestores;
Importância da Informação e da tecnologia na Organização;
Usar Teorias de Administração em Tecnologia da Informação;
Explorar modernidades em TI;
Cria e encorajar empreendedores;
Manter excelência em produtos e serviços na organização;
Criar no indivíduo a autocrítica para sua vida pessoal e profissional;
Ensinar integrações e interações para um contexto grupal e crescimento de equipe;
Ensinar aos alunos como é possível ser autodidata;
Contribuir para geração de projetos dentro da organização executando atividades na área de TI;

Prof Allan Rangel Barros de Oliveira Barros

Será que estou no limite deste blog?

Prof Allan Rangel Barros de Oliveira Barros


Impressora a base de Gel revoluciona mercado!

Prof Allan Rangel Barros de Oliveira Barros: October 2005

Tecnologia de Impressão também não tem limites!!!!!!!!!!
Veja o que a Empresa Printfacil de Ribeirão Preto nos diz das novidades:

Semelhante à jato de tinta mas que utiliza tinta pigmentada gelatinosa ao invés de corante líquido a RICOH lança no mercado a única impressora a gel do mundo.

Batizado de GelSprinter, esse sistema é a base da nova impressora Aficio G500, que já está disponível nos canais de venda da Ricoh no Brasil.

Segundo o Sr. Julio Barros Diretor da Print Facil, a G500 vem preencher uma lacuna no mercado corporativo, que demanda por impressões em cores num baixo volume que até hoje foi atendida por soluções a jato de tinta cuja produtividade e/ou seu custo por página impressa deixa às vezes a desejar.

A clássica solução para o custo sempre foi a laser monocromática que, apesar de ligeira, carece do potencial de informação e riqueza visual que os sistemas em cores proporcionam.

Sob esse ponto de vista, a Afício G500 GelSpinter se posiciona como um meio termo entre as jato de tinta mais voltadas para o mercado SOHO e as lasers em cores de custo mais elevado.

Com o preço sugerido de 1.699 reais, a G500 é um equipamento mais voltado para produtividade, sendo capaz de imprimir até 19 ppm (páginas por minuto), segundo dados da empresa.

Para isso, ela conta com uma cabeça de impressão relativamente larga (3,2 cm) o que permite cobrir uma maior área do documento com um menor número de passadas.

Para garantir uma passagem precisa do documento pelo mecanismo de impressão, ao invés de roletes de tração a G500 utiliza uma cinta de transporte que mantém contato físico sobre toda a superfície da mídia a ser impressa impedindo que a mesma saia do alinhamento.

Finalmente, sua tinta é uma combinação de pigmento diluído numa base de gel que, segundo a Ricoh, permite um posicionamento mais preciso da gotícula de tinta (já que ela não escorre) e sua secagem é mais rápida, o que evita que uma página recentemente impressa grude na próxima que acabou de sair do equipamento.

Outra vantagem desse sistema é que, devido à sua viscosidade, a tinta não escorre do reservatório o que torna esse sistema bastante limpo, mesmo na hora de trocar os cartuchos.

A tecnologia de impressão é parecida com a usada pela Epson (piezo elétrica) mas, ao contrário desta, os cartuchos de tinta (um para cada cor) não são montados sobre a cabeça de impressão, e sim num compartimento frontal de fácil acesso, sendo que a tinta é enviada para o cabeçote por meio de tubos.

Apesar disso tudo, a G500 possui algumas excentricidades para um equipamento supostamente de uso corporativo. A maior delas é a inexistência de suporte para rede local, já que sua única porta de comunicação é do tipo USB, o que faz com que a mesma precise estar ligada num PC em rede para que seu uso possa ser compartilhado com outros equipamentos.

Além disso, ela não possui suporte para algumas linguagens de programação como PCL ou PostScript, apenas GDI da Microsoft o que limita o seu uso fora do mundo PC com Windows.

Prof Allan Rangel Barros de Oliveira Barros: October 2005

O Massachusetts Institute of Technology (MIT) divulgou mais detalhes e o design do laptop de US$ 100 (cerca de R$ 222) destinado a estudantes de países em desenvolvimento. O governo brasileiro demonstrou interesse e já recebeu o presidente e co-fundador do Laboratório de Mídia do MIT, Nicholas Negroponte, para discutir o projeto.

O laptop é equipado com processador de 500 MHz, disco rígido de 5 Gb, sistema operacional Linux e monitor de cristal líquido de sete polegadas com resolução de 640 por 480 pixels. Ele pode ser transportado como se fosse uma lancheira ¿ a alça é também o cabo de força. Na ausência de energia elétrica, o laptop pode ser recarregado com uma manivela.

O revestimento é emborrachado. Negroponte considera necessário que o laptop seja "absolutamente indestrutível". Até o final de 2006, entre cinco milhões e 15 milhões de unidades devem ser produzidas para os mercados propostos, incluindo China, Tailândia, Egito e África do Sul.

Música legal em alta
O mercado de download e de outras formas de comercialização de música digital triplicou em um ano. No primeiro semestre de 2005, o segmentou arrecadou US$ 790 milhões, contra US$ 220 milhões no mesmo período do ano passado.

De acordo com a Federação Internacional de Empresas Fonográficas, o crescimento também provocou queda nas vendas de CDs e de outros formatos físicos. A música digital já corresponde a 6% de toda a indústria. De acordo com o relatório, o boom da música digital foi comandado por cinco mercados: Estados Unidos, Grã-Bretanha, Japão, Alemanha e França.

Música pirata em baixa
Na segunda quinzena de setembro, uma histórica decisão da Corte Suprema dos Estados Unidos praticamente determinou o encerramento das operações de pelo menos três serviços de troca de arquivos. O popular WinMX, por exemplo, já saiu do ar.

O BearShare e o eDonkey devem ser os próximos ¿ apesar das negativas do presidente da segunda empresa. É possível ainda que elas modifiquem os seus sistemas de negócio, para bloquear a distribuição de conteúdo protegido por direitos autorais.

De qualquer forma, quem gosta de compartilhar música na Internet está ficando cada vez com menos opções.

Controle da Internet :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::
A Comunidade Européia tem manifestado o desejo de que a controle da Internet passe para a Organização das Nações Unidas (ONU), em vez dos Estados Unidos. Yoshio Utsumi, presidente da União Internacional de Telecomunicações, declarou que a agência, ligada à ONU, já está pronta para assumir a administração da rede mundial.

Os Estados Unidos, no entanto, rejeitam a proposta. Durante um encontro em Genebra, na Suíça, David Gross, coordenador norte-americano de comunicações internacionais e política de informação do Departamento de Estado, classificou como "inaceitável" dividir o controle da Internet. "Não é uma questão de negociar. É a política nacional", justificou.

O Brasil já manifestou apoio em passar a administração da Internet para as mãos da ONU.

Prof Allan Rangel Barros de Oliveira Barros: October 2005

Microsoft, enfim, confirma SP3 para Windows XP
Sexta-feira, 7 outubro de 2005 - 10:01
IDG Now!
A Microsoft confirmou oficialmente nesta quinta-feira (06/10) que vai lançar um terceiro Service Pack para a versão atual do Windows XP.


A companhia não deu mais detalhes sobre a nova atualização, mas disse que o Service Pack 3 (SP3) será lançado após o Windows Vista, próxima versão do sistema operacional que deve chegar ao mercado no final de 2006.

"Neste momento, o Vista é nossa prioridade", disse Michael Burk, gerente de produto do Windows Vista na Microsoft, em uma declaração. "Vamos ter mais informações para fornecer após o lançamento do Vista", completou,

Notícias sobre um possível SP3 vazaram na última semana, com a publicação de matérias citando Bernard Ourghanlian, diretor técnico e de segurança da Microsoft França como fonte da afirmação de que o pacote de atualizações seria lançado após o Vista.

No entanto, até a quarta-feira (05/10), a Microsoft insistia que ainda não tinha decidido se iria lançar um terceiro Sevice Pack.

Uma das atualizações mais significativas do sistema operacional, o SP2 foi lançado em agosto de 2004 e trouxe recursos para tornar o Windows mais seguro.

Desenvolvedores que queriam uma prévia do que pode ser incluído no SP3 podem visitar o Hotfix (http://www.thehotfix.net/), site de download de software e fórum de discussão voltado a patches e atualização de programas.

Ethan Allen, criador do Hotfix, disse nesta quarta-feira (05/10), que havia compilado uma pacote com atualizações de software recebidas de uma fonte interna da Microsoft.

Segundo Allen, as atualizações devem compor o próximo Service Pack, mas a Microsoft não confirma a informação.

Allen é um testador de produtos beta da Microsoft e ex-funcionário da empresa. Atualmente ele trabalha em uma companhia de tecnologia em Washington, cujo nome não quis revelar.

domingo, outubro 09, 2005

Prof Allan Rangel Barros de Oliveira Barros

Câmera do tamanho de uma cápsula de remédio substitui endoscopia

A capacidade de agregar equipamentos já existentes, dando ao conjunto uma nova função, é uma das principais formas de manifestação da inovação tecnológica. Foi o que fizeram os engenheiros da empresa Given Imaging, de Israel: eles reuniram uma câmera digital, baterias, um transmissor de rádio e um LED, tudo em miniatura, e montaram um sistema que poderá eliminar para sempre os delicados e invasivos exames de endoscopia.

Pessoas com suspeita de problemas em qualquer parte do aparelho digestivo, atualmente devem se submeter a um exame de endoscopia, no qual um aparelho - o endoscópio - dotado de uma pequena câmera de vídeo, é inserido através da garganta. O exame é extremamente desconfortável, o que exige que o paciente seja sedado, levando horas para se recuperar.

Já a nova câmera é do tamanho de uma cápsula de remédio e pode ser facilmente engolida com o auxílio de um copo d'água. Batizado de PillCam, o equipamento é descartável, sendo eliminado naturalmente pelo organismo depois de 24 horas.

Antes disso, porém, a minúscula câmera vai filmando todo o trato gástrico e intestinal. Isso a torna uma solução nova também para o exame do intestino delgado, para o qual não existe técnica totalmente satisfatória atualmente.

O próprio organismo se incumbe de ir levando a câmera ao longo do organismo. Durante 5 horas, ela ilumina e filma todo o trajeto. Durante esse período, o paciente nem mesmo precisa ficar no hospital.

Terminado esse período, o médico coloca uma antena próxima ao abdômen do paciente, e a pequena cápsula utiliza seu transmissor de rádio UHF para enviar um filme de 20 minutos para um computador. O filme inclui a indicação precisa da localização da cápsula em cada momento, o que é essencial para que o médico possa fazer um diagnóstico preciso.