A vaga das App Stores

Este post versa sobre um tema com bastante visibilidade e alvo de concorrência feroz na actualidade. O tema das Apps Store.
E o que é isso de App Stores? São basicamente lojas online, onde são disponibilizados pequenos programas ou aplicativos para uso nos telemóveis, sobretudo nos smartphones, e nos notebooks ou portáteis.
A estreia deu-se com a Apple, que já não surpreende com as suas iniciativas a marcar os ciclos de negócio votados ao sucesso. No seu estilo inovador e de aposta na qualidade, em Julho de 2008, a Apple abre uma loja que ao cabo de um mês já era uma referência. A App Store dedicada ao iPhone e iPod conseguiu num mês a venda de 60 milhões de programas. A própria Apple ficou surpreendida com a taxa de adesão às suas propostas.

Limpar armas

Uma série de outras empresas se seguiram e criaram as suas próprias lojas com soluções exclusivas ou de terceiros. Sobre este tema, circula a opinião entre o meio de que a reacção do mercado não foi muito saudável nem é favorável ao consumidor final. Multiplicam-se as app stores que, em vez de constituirem uma alternativa, acabam por copiar a vizinha. A falta de dferenciação, agravada pelo facto de algumas das stores não terem nem tradição nem comunidade de desenvolvimento ou programas originais de raiz, desvirtua o potencial que possa estar assoicado a este tipo de iniciativa.

À medida que a tecnologia evolui para programas cada vez mais simples, fáceis de usar, quase sem necessidade de instalação, e para aplicações que integram outras, verifica-se um crispar de tensão entre as empresas. E a concorrência deixa de ocorrer apenas entre actores do mesmo sector, para se estender a todos os sectores. Se a guerra era em tempos entre a Apple e a Microsoft, enquanto fabricantes de sistema operativo, há já algum tempo que entraram ao barulho os fabricantes de telemóveis e mais recentemente os fornecedores de acesso à Internet. Todos desejam disponibilizar as melhores aplicações, os programas mais ricos em experiências aos seus clientes.

copyright 2009 Gizmodo

Portanto, a tendência será para esta multiplicação das App Stores se verificar nos próximos tempos, mesmo ao nível nacional. E a testemunhá-lo, recebi ainda ontem uma mensagem da Optimus a dar notícia dos serviços da AppStore do Portal Optimus Zone. O mesmo fazem os outras redes de telemóveis, impulsionadas pela nova vaga de aplicações “à la carte”. Veja-se a guerra entre a TMN e a Vodafone pela plataforma Android.

Funcionamento das App Stores

A chave do sucesso destas lojas assenta numa lição antiga e bem sucedida do software livre, que está associada à co-autoria e participação no desenvolvimento de novos programas. A diferença é que tudo se passa debaixo de um novo modelo de negócio, com vantagens para todas as partes, mas em particular para os promotores que nunca conseguiriam tal proeza não fosse o efeito comunidade.

E as três partes interessadas são: promotores da loja, programadores espalhados pelo mundo, consumidores. Os promotores disponibilizam a plataforma, as ferramentas de desenvolvimento e o marketing. Os programadores criam novas aplicações, integram-nas com outras já existentes, estendem o uso de programas a outros dispositivos, combinam aplicativos, resultando daí produtos vedetas que, por excentricidade ou grande pragmatismo, conquistam a atenção e o interesse dos utilizadores. Os clientes visitam frequentemente essas lojas à procura da aplicação que faltava, da que está na moda, ou da que os amigos têm. Frequentam, recomendam e opinam sobre estes aplicativos, mas também os testam e experimentam, propondo melhorias. Além de todo este tráfego gerado, fazem compras e arrastam novos interessados.

E não se substime o poder que os grupos têm no sucesso destes modelos de negócio. Cruzei-me com uma crítica de um utilizador da plataforma AppStore que reclamava desejar saber, quando acede à plataforma, que aplicações os amigos escolheram e quais as que mais gostam. Este efeito de massa explica o sucesso de aplicativos como o iBeer ou o Rolando. O iBeer é uma brincadeira divertida feita com o iPhone. O iPhone transforma-se em copo de cerveja e a pessoa pode simular que bebe. Trata-se de uma brincadeira, um gadget, mas dos mais falados e mais experimentado.

O Rolando, com 700 mil downloads em 3 meses, conheceu grande popularidade e a saga continua. O que é interessante sublinhar é o sucesso do autor, a quem tinham sido fechadas repetidas vezes as portas de empresas de jogos por alegada falta d eexperiência. Na AppStore, não só foi possível criar o jogo como, do êxito alcançado, abrir a sua própria empresa, a HandCircus no Reino Unido. Este jogo marca um registo novo na forma de jogar. Os críticos achavam que sem botões não seria viável o jogo, mas atentem um pouco no vídeo, que desmente essa opinião. Tudo se faz sobre o ecrã sem lançar mão de qualquer botão. Cham-se Rolando porque as criaturas são redondas e rolam, tendo-se que fazer explodir os mauzões para desbloquear as passagens.

Na relação loja-programadores, o processo mais comum é o registo inicial na plataforma, que dá acesso às condições para criar e recriar aplicativos – ferramentas, contactos com a comunidade de programadores e feedback dos utilizadores. Uma vez criado o software, é submetido à aprovação e validação pela empresa promotora da store, sendo escolhido a modalidade para disponibilização aos clientes. Das vendas, o programador fica com 70 ou 80% e o resto é da empresa, responsável pela loja.

A chave para a sustentabilidade

O negócio alimenta-se das vendas, obviamente, das taxas cobradas aos programadores pelo uso da plataforma e das ferramentas profissionais e do imenso tráfego que geram. Também parece óbvio o ganho resultante do crescimento e da visibilidade alcançados num curto espaço de tempo. Em tempo record, as lojas bem sucedidas conseguem uma diversidade de aplicações que tornam o seu produto base mais atractivo, mais interessante e mais vendável. Nenhuma empresa dispõe de tempo útil nem recursos para realizar o mesmo feito.

Loja e programadores dividem os lucros e esperam ter compradores satisfeitos. Sobre a propriedade intelectual das aplicações criadas na plataforma, tudo indica que sejam da empresa, dona da store, embora essa questão merecesse esclarecimentos nos termos de uso.

O sucesso destas stores explica-se pelos preços praticados, gratuitos ou a começar nos $0,99, ultrapassando dificilmente a barreira dos $10. Porém, a RIM tem aplicações com custo de $100. Outro factor de sucesso é a diversidade de aplicativos, embora uma análise recente à AppStore indique que apenas 5% dos programas tem uma base de utilizadores ampla, ou seja, acima dos 100 mil downloads. Um sem número de programas estão esquecidos sem grande possibilidade de uso. De qualquer forma, como lidamos à escala global, um programa bem sucedido representa ganhos enormes.

Condição de base para o sucesso está no uso de normas standard e abertas, pois só desta forma viabilizam a integração entre aplicações e universalizam o seu uso, sem condicionamentos de plataforma ou dispositivo.

Algumas App Stores em análise

Da série de App, dei prioridade às que actuam no cenário global. No levantamento realizado, tentei caracterizar o melhor possível cada projecto e, depois, considerei a oferta dirigida aos consumidores e aos programadores.

Segue o quadro-síntese e uma série de comentários motivados pelos dados recolhidos.

appstores_quadro

É óbvia a semelhança entre os projectos, sendo os mais singulares o do Google e o da Sun. A recente vaga de lançamentos de lojas ocorre um ano depois da proeza da Apple, o que é muito tempo neste sector. Isto só prova que os concorrentes foram apanhados desprevenidos e tardiamente se aperceberam do potencial inerente a este modelo de negócio.

O tamanho do mercado neste negócio é algo bastante sensível e condição de sucesso. Se a Apple conseguiu a projecção, sendo por norma uma comunidade minoritária, quando comparada com outras, imagine-se o efeito que pode vir a desencadear a JavaStore, quando a comunidade de programadores de Java é incomparavelmente maior (crê-se que serão 800 milhões activos). Também existem lojas mais orientadas para o mercado empresarial, caso da Nokia, RIM, Microsoft, enquanto a Apple está muito colada à camada jovem e ao lazer, música e jogos. A Microsoft apresenta o problema de não ser para já cross-platform, ou seja, as aplicações só funcionam em dispositivos Windows. A contrariar esta tendência, a Sun lançou um desafio à Apple, propondo-lhe que alinhasse no desenvolvimento do virtualizador Java para o iPhone, permitindo correr aí programas Java. No entanto, a Apple recusou, provavelmente com medo de perder lucros e de dar aos utilizadores iPhone ou iPod a possibilidade de escolher e migrar para outras plataformas.

O número de downloads exprime bem o patamar de acção destas lojas. No entanto, nem sempre tudo corre bem. No caso da Nokia, o lançamento saldou-se num fracasso, por ter ainda poucas aplicações. Para termos noção do que é aceitável para o público, basta dizer que a Apple tem na sua store 35 mil programas (mas encontrei referências a 50000!) das mais diversas áreas e circunstâncias. É difícil neste universo, um utilizador não encontrar uma que lhe encha as medidas!

Há depois outras situações. Veja-se o exemplo do Windows Mobile Market que se apresentou na abertura com 600 programas, mas que na realidade tudo aponta que disponha de mais de 20000 programas noutras plataformas e parceiros. A Microsoft optou por seleccionar as melhores e não centralizar a totalidade das aplicações na sua store.

Relativamente à oferta dos programas prontos a descarregar e a consumir, há em todas as lojas a modalidade do gratuito e do pago. Os preços são acessíveis de uma maneira geral e estão de acordo com a mais valia dada pelo software que se adquire. Em geral é possível reinstalar o programa as vezes que se desejar ou um número determinado de vezes, mas sempre no tipo de dispositivo para que foi adquirido.

A natureza das aplicações cobre quase sempre o telemóvel e os notebooks/ portáteis, mas há plataforma ssó para mobile e a plataforma JavaStore/ javaWarehouse que quer apostar no mercado do desktop, onde tem menos peso.

Umas últimas linhas para os casos mais especiais e diferenciadores: o Android e o Java. Ambos estão alinhados pela filosofia Open source, tendo o Google criado a Open Handset Alliance que reúne 34 membros (HTC, Motorolla, Google, T-Mobile…) com vista à concretização do projecto, pois são eles o garante de contribuições e consolidação do programa. Num caso e noutro, a plataforma é Linux e a linguagem é Java.

A JavaStore é promissora pelo facto do Java ser muito conhecido e utilizado, tendo sido um impulsionador dos milhares de aplicações que cedo inundaram o campo dos telemóveis. Todavia, a aposta da Sun vai para o campo dos netbooks e portáteis, onde têm pouca representatividade. Aliás, o projecto é ambicioso ao ponto de estabelecer como objectivo a criação e desenvolvimento de aplicações para browser, desktop, telemóvel e TV.

Em próximo post, seleccionarei algumas apps de sucesso do iPhone, as que têm feito furor, mas sobretudo as que podem ser úteis no dia a dia ou que simplesmente assentam em conceitos curiosos.

Anúncios

As atenções voltadas para os data center

O data center é uma infra-estrutura composta pelos sistemas computacionais e serviços associados, como o de comunicações (e-mail, acesso à Internet), armazenamento, segurança e backup de dados. O seu bom funcionamento depende do uso de normas e protocolos como o IP, mas também de uma série de condições ambientais e requisitos apertados de segurança e monitorização da totalidade do sistema. O conceito vem desde os primeiros grandes computadores – mainframes, que requeriam condições de funcionamento e manutenção tal como nos data center actuais, embora hoje essa exigência decorra mais da complexidade e da permanente solicitação a que as redes e infraestruturas estão sujeitas. Um data center possui geralmente:

  • sistemas de redundância e de backup para evitar perdas, quando falha a electricidade por exemplo;
  • conexões alternativas em momentos de grande tráfego ou de ameaças e ataques;
  • controlo das condições ambientais (ar condicionado para controlar a humidade e a temperatura, evitando as condensações e a electricidade estática, sistemas de detecção, prevenção e combate ao fogo) e
  • dispositivos de segurança como a VPN gateway, firewalls, sistema de detecção de intrusos, backup encriptados entre data centers.

Actualidade do tema “Data centers”

Uma série de factores têm lançado os data centers para a primeira linha, entre os quais o avanço do cloud computing (ao nível da infraestrutura – IssS Infrastructure as a Service), o cenário de crise, o aquecimento global e a necessidade de reduzir custos, tanto económicos como ambientais, e de melhorar a eficiência a todos os níveis – espaço, energia, segurança, escalabilidade dos sistemas. Outsourcing, auditorias de eficiência, sistemas à medida das necessidades a cada momento, são cada vez mais as palavras que orientam as decisões nas empresas em matéria de infraestrutura de informação. Em medida superior, esse interesse é manifesto nas empresas que movem meios para oferecer serviços com excelente qualidade. Nessa medida, não são raras as fusões e alianças entre empresas para conseguir cobrir o largo espectro de necessidades que um data center implica.

Empresas no mercado dos data centers

Só empresas de grande porte têm capacidade para avançar com modelos de negócio que abarcam todo o ciclo de vida do data center. Cisco, HP, IBM, anunciam serviços de data center que incluem: instalação e manutenção do hardware, segurança da rede de ataques e acessos, backup, actualização imediata do software, migração.

A HP, que presta o serviço na modalidade cloud computing com o SAP, orienta-se primeiramente para as PME, mas antevê o interesse deste tipo de produto em empresas petrolíferas e de animação.

Porém, um exemplo bastante interessante e com a informação organizada e abundante nesta área tem sido o da Sun Microsystems. Não foi por acaso que o gigante azul namorou a Sun. Porém, a Oracle levou a melhor…

A característica comum a todos os serviços da Sun está na preocupação com a eficiência, a redução dos custos e o respeito ambiental. Assentam a estratégia na virtualização, na optimização da estrutura actual, após auditoria, quer da capacidade de processamento, quer da redução da factura energética. A criação do OpenEco.org é prova dessa política estratégica.

Esta empresa propõe-se combater os números negros das infraestruturas de IT que são acusadas em relatório da EPA de ter duplicado o consumo energético entre 2000 e 2006, e ainda de possuírem sistemas de arrefecimento que representam 50% de toda a energia.

A promessa aponta para um aumento da capacidade de processamento de 456% e de armazenamento de 244%, com reduções de 60% em gastos energéticos.

Apesar de ter sido mencionada a iniciativa da Sun, não faltam projectos e listas de recomendações na área do Green IT, e mesmo empresas como a AISO, da área do alojamento em cloud, que é considerada uma das 50 mais verdes pelo facto de utilizar só energia limpa.

Os conselhos vão por duas vias: evitar o desperdício e melhorar a performance da estrutura já existente e recorrer a técnicas e mecanismos mais ecológicos e capazes. Alguns exemplos: medir a eficiência, melhorar o sistema de arrefecimento, virtualizar o armazenamento, substituir servidores antigos e pouco eficientes, usar energias renováveis.

Tendências que se desenham

Será inevitável a evolução para data center mais ecológicos, mas também mais seguros e em formato cloud computing.

Não há data centers invioláveis, mas é certo que os seus sistemas de segurança, redundância, monitorização, são superiores aos de qualquer empresa. Estão localizados em zonas anti-sísmicas, alguns deles estão sedeados em antigos bunkers, pedreiras. O da Microfil em Esmoriz foi considerado muito seguro e só assim foi possível ser escolhido para guardar documentos da NATO. Neste negócio, não se regateia em matéria de sistemas de segurança activos, sejam eles activos ou passivos.

O calcanhar de Aquiles é mesmo o facto de constituírem alvos preferenciais de ataques, por serem a “sede de dados” de muitas empresas. O caso recente do apagão do data center do Google na Europa é prova disso ou a ameaça crescente de worms sofisticados e agressivos, com efeitos virais impressionantes, como se imagina que seja o Conflikter.

Sem deixar de ter presente os riscos inerentes aos data centers – todos os ovos na cesta à guarda de terceiros, é razoável acreditar que a evolução nesse sentido dar-se-á, até pelas razões já apontadas do porquê dos data center na moda.

A elevada complexidade e exigência dos sistemas, o cenário de mudança rápida em que as empresas operam, a maior exigência no controlo dos gastos, obrigam a:

  • manutenção quase permanente, incomportável na maioria das empresas, porque não há dinheiro nem equipa para tal,
  • investimentos avultados num dado momento em que se prevêem necessidades a médio prazo que poderão não se verificar, por exemplo a expansão ou a internacionalização ficam adiadas por 2 anos, tempos suficiente para votar ao fracasso todo o investimento em TI realizado.

Subscrever um serviço que dá todas as garantias e em termos de gastos é um custo mensal fixo, torna-se muito atraente.

É claro que as empresas que entram neste negócio estão interessadas em tornar os data center boa opção aos olhos dos decisores, porque os investimentos na criação de uma infraestrutura destas é tão brutal que precisam de ter muitos e bons clientes e taxa de uso dos data center bem próximas do óptimo. A lógica da escala parece interessar ambos os intervenientes, empresas e fornecedores dos serviços.

Soluções de vanguarda

Começou por se verificar um cuidado crescente na escolha dos sítios para os data center – zonas com fonte energética barata e abundante e afastadas de pessoas, que potenciam os riscos. Mas isso já não basta, por isso as alternativas têm de ser mais criativas e vanguardistas.

Além da virtualização e do uso de energias limpas, equaciona-se cada vez mais a localização dos data centers em sítios à partida improváveis – no alto mar. A patente é do Google e a ideia é aproveitar a energia das águas para alimentar o centro, afastá-lo de zonas de risco e evitar taxas e impostos, por se situar em águas internacionais. As máquinas estariam em contentores e poderiam ser transportadas em navios, facilitando a substituição e manutenção. A comunicação com a terra seria por cabo.

A Intel está testar data centers alimentados a painéis fotovoltaicos. A Liquid Computing fala de data center dinâmicos que se adaptam às necessidades em cada momento das empresas.

Dados que impressionam

Sobre este assunto em particular, recomendo os sítios Data Center Knowledge e ZDNet Data Center Videos. Mas proponho com o mesmo entusiasmo o The Green Enterprise da ZDNet que aborda a questão da ecologia nas empresas de forma mais abrangente e bastante interessante. Tive oportunidade de conhecer o programa do OpenWork da Sun, o software Green Building Studio que está a ser desenvolvido pela Autodesk e que serve para melhorar o desenho dos edifícios em termos de ecoeficiência.

Mas não queria terminar sem dar alguns números do consumo de energia dos data center que nos devem fazer pensar. Um data center de tamanho médio representa, em termos de poluição, 2200 carros a circular todo um ano. Ainda no capítulo do consumo energético, cientistas questionaram-se se seria mais ecológico ver TV ou pesquisar no Google. Os cálculos revelaram que o uso da Internet é bem mais poluente. Realizar duas pesquisas no Google equivale a ferver uma cafeteira de chá em termos de emissão de CO2.

Para terminar, fica um curto vídeo que mostra claramente o que é um data center por dentro, no caso o da Oracle em Austin. Segurança ao máximo, sistemas de arrefecimento também, e, ainda, reforço com energia eólica.

Redes sociais – que modelo?

As redes sociais prosperam e recomendam-se, não, contudo, sem altos e baixos e algumas nuvens no horizonte. Discute-se o modelo de financiamento, estudam-se formas de funcionamento sustentáveis e, sobretudo, rentáveis. O caso do Youtube ilustra essa busca do Santo Graal das redes sociais. Já nas mãos da Google, fazem-se ensaios de como incluir publicidade ou promover certos vídeos, procurando o sucesso do Google Adwords e Google Adsense neste universo. Veja-se a propósito a série de material e dicas de como utilizar este meio para criar canais de promoção, campanhas e promover produtos e serviços.

Mas o motivo para trazer as redes sociais a este espaço foi a decisão do Facebook em alterar unilateralmente as condições de uso do serviço, causando a ira dos utilizadores.

O caso da polémica

A mudança das condições de serviço do Facebook em inícios do mês de Fevereiro caiu que nem uma bomba na comunidade de 175 milhões de utilizadores. Haverá que dizer que a mobilização foi de 120000 pessoas que se manifestaram em blogs e no site da empresa, que solicitaram o encerramento da contas ou que apagaram fotos e outros conteúdos colocados por si na plataforma.

Mas independentemente do número de vozes contra, o que indignou muitos membros do Facebook foi a modificação de uma cláusula que atribuía uma licença perpétua, ilimitada e com alcance mundial a todo o conteúdo publicado livremente no site pelos utilizadores, mesmo nos casos de fecharem a conta ou desejarem apagar esses conteúdos. Essa licença incluía todo o tipo de uso dos conteúdos – copiar, reproduzir, alterar, traduzir, adaptar, reter, publicar, usar para fins comerciais.

Desta cláusula abusiva e permissiva deu o alerta o jornal The Consumerist, desencadeando reacções imediatas. Mark Zuckerberg, o rosto do Facebook, veio pôr água na fervura. Explicou no blog que a intenção não era apropriarem-se dos conteúdos dos membros nem substituírem-se aos utilizadores no controlo da informação pessoal e conteúdos que trocam com outros. Esclareceu que o objectivo era evitar que a retirada de conteúdos decidida a dada altura por um utilizador inviabilizasse a sua visualização e consulta.

A empresa decidiu recuar perante a chuva de protestos e voltar à situação anterior. Além disso, actualmente convidam os membros a participar na elaboração da nova versão do documento das condições de serviço a que chamaram “Declaração dos direitos e deveres do Facebook”.

Redes sociais há muitas

O fenómeno das redes sociais já há algum tempo que seduz estudiosos e observadores da Internet. Além de constituir um “caso de estudo” em que se reúne em pouco tempo quantidades impressionantes de material para trabalho sobre tendências, comportamento social, líderes de opinião e outras matérias, constitui uma fonte de recolha de perfis de consumo e um alvo comercial das campanhas de marketing cada vez mais personalizadas.

São vários os tipos de rede social – as generalistas que agrupam amigos reais ou conhecidos no espaço virtual, as redes profissionais para troca de contactos e promoção na área de trabalho, de blogs, ou por temas de interesse – música, viagens, cinema. Mas também são diversas as redes que têm caminhos de sucesso diferentes. Enquanto algumas nunca mereceram a atenção do público, outras tiveram um crescimento exponencial, como o caso meteórico do Facebook.

Também a popularidade de algumas redes está directamente ligada a um país ou área geográfica. Por exemplo, na Índia a rede mais famosa é Orkut. A própria receptividade das redes sociais é claramente mais forte no Ocidente que na Ásia, sobretudo na China, pois os jovens chineses não aspiram a aumentar o seu círculo de amigos por essa via nem partilham o mesmo universo de interesses da comunidade do Facebook, por exemplo. Em notícia, avançavam-se as diferenças culturais, sociais e políticas como motivos determinantes na adesão a este tipo de serviços. E certo é que se uma rede social conseguisse ir ao encontro de comunidades tão extensas como a chinesa (300 milhões de internautas), bem que podia pôr-se à sombra da bananeira.

redes_lista

O quadro revela a ominipresença dos EUA nas redes sociais, mas também fica patente que a entrada de países da Ásia e da América Latina nas redes reescreverá a história deste fenómeno.

As redes generalistas são as que mais popularidade e membros possuem.

No caso do Flickr e do Youtube não foi possível encontrar total de contas registadas, porque são serviços ligados a outros, Yahoo e Gmail, sendo difícil separar as águas e obter números fidedignos.

Um estudo a seis redes sociais pela RapLeaf, uma empresa especializada no estudo das redes sociais, avança algumas informações interessantes sobre o perfil de utilizadores das redes.

redes_perfis

São mais as mulheres que frequentam as redes, excepto no caso da Linkedin, onde o perfil masculino domina. Nesta mesma rede, a faixa etária jovem tem pouca expressão, o que é perfeitamente lógico, visto tratar-se de uma rede profissional. Outro elemento a ter em conta é o registo em várias redes, quase três na média. A Plaxo é a que possui membros com maior registo noutras redes. O facto explica-se por se tratar de um agregador de contactos.

Modelos e modelos…

O caso relatado suscitou dúvidas acerca das regras de funcionamento das redes sociais em matéria de privacidade e direitos de autor, mas também alerta para a relativa facilidade com que se alteram as condições de um momento para o outro, sem que nada possa valer a não ser os protestos.

Num exercício de levantamento de redes e políticas, verifiquei que há modelos muito diferentes, que vão desde o estrito respeito e máximas garantias dadas aos utilizadores (Twiter e Tuenti, por exemplo) até à apropriação de conteúdos assumida ou dissimulada, como se verificou no episódio com o Facebook.

Dois aspectos – a segurança/ privacidade e o tratamento dos conteúdos, constituem na actualidade as matérias sensíveis relacionadas com as redes sociais, mas o quadro abaixo apenas reflecte o levantamento realizado para os conteúdos. Na sua elaboração foram utilizados os textos dos termos de condições das redes em questão.

redes_condicoes

Começando a leitura dos elementos reunidos, pode dizer-se que existe claramente um padrão nestas licenças – quase todas elas limitadas ao período de uso do serviço. A linguagem é tambémsimilar, sendo verdade que a maioria dos serviços retratados são de origem ou de influência norte americana.

Há o cuidado em salvaguardar a impossibilidade ou dificuldade em fazer coincidir o fim de um contrato com o fim das cópias de backup, pelo que podem persistir por algum tempo no sistema os conteúdos apagados pelo utilizador. Durante o tempo em que o membro utiliza o serviço, o fornecedor pode fazer quase todo o tipo de acções com o conteúdo daquele. Nalguns casos, pode usá-lo mesmo para fins comerciais. A extensão dos direitos a terceiros está por vezes muito diluída nos termos em que é referido. Fala-se no site, o âmbito mais aceitável, mas depois declara-se que pode estender-se a serviços, a parceiros. No caso do Google, um gigante na área, ficamos com a sensação que os direitos poderão ser cedidos a meio mundo, tal a quantidade de empresas que trabalham com Google ou pertencem ao seu universo.

Salvo no caso do Flickr, onde área pública e privada estão delimitadas e o uso de CC está previsto, o membro não tem qualquer controlo em relação aos usos do material que disponibiliza. Tal como recomendava o The Consumerist, o remédio é mesmo ponderar antes de publicar.

A rede Linkedin tem a particularidade de assenhorar-se totalmente dos conteúdos da autoria dos seus membros. É curiosa a frase despudorada: «You do not have to submit anything to us, but if you choose to submit something (including any User generated content, ideas, concepts, techniques and data), you must grant (…)». É assumida claramente a cedência dos direitos, não havendo margem para dúvidas após a leitura do texto. Já no texto alterado do Facebook, a alteração foi tão subtil e  passava tão despercebida que levantou dúvidas acerca da boa fé da empresa.

Apesar da privacidade não ter sido objecto desta análise, a garantia de maior ou menor protecção dos dados pessoais e dos conteúdos dos membros está intimamente ligada ao modelo de negócio. A série de aplicações que é possível pôr a funcionar na plataforma do Facebook por entidades terceiras impede que o fornecedor de serviço consiga dar garantias mínimas nesse campo. Inocentes jogos de palavras, clubes, questionários sobre gostos musicais, quiz e outros, permitem que empresas interapelem os utilizadores de Facebook. Responder a qualquer destas propostas implica em geral aceitar que os dados do perfil sejam transferidos para essa identidade, muitas vezes com um simples clique, sem que a pessoa esteja consciente das implicações.

A este propósito, a BBC realizou uma investigação que põe a descoberto a fragilidade de Facebook na segurança. Frequentes vezes, as opções estratégicas para tornar o modelo da rede social mais rentável levam os fornecedores de serviço a descurar aspectos cruciais para a credibilidade e boa imagem da rede na opinião pública. Acerca do Facebook, é inegável o interesse crescente pela publicidade, na forma de anúncios, e na procura da visibilidade – integração com websites, partilha de conteúdos via “share link”.

A jeito de conclusão

O que é importante reter desta lição é a forma negligente com que continuamos a aceitar as condições nos registos de serviços na Internet sem as lermos atentamente. Este episódio tem também o mérito de levantar a ponta do véu relativamente a um assunto que ocupará certamente as conversas nos próximos tempos – a guerra pelos conteúdos e informações pessoais.

Não é desejável uma oposição por norma às redes sociais, mas é precisa muita cautela e sobretudo não fazer algo em que nos sintamos desconfortáveis. A escolha do que publicar em cada lugar é importante e uma leitora comentava na sequência da notícia que não a chocava que os conteúdos do seu espaço Facebook fossem utilizados e até comercializados, mas já achava abusivo que os seus artigos no blog com licença CC, que faziam “share” com o Facebook, passassem a “propriedade” da Facebook e que a empresa pudesse fazer negócio com conteúdos marcados pela autora como livres para partilhar.

Estas e outras “voltas” das redes continuarão a exigir atenção e escolhas acertadas.

Creative Commons, o copyright à la carte

Muitos poderiam ser os motivos por detrás da escolha deste tema para post, mas o que esteve verdadeiramente na sua origem foi o rápido desenvolvimento deste projecto. Lembro que há um ano atrás, à Creative Commons estava associado o famoso conjunto de licenças alternativas ao copyright, mas em poucos meses multiplicaram-se os programas, o alcance e a popularidade da “marca” CC.

Problemas associados à propriedade intelectual e direitos de autoria

Ao contrário do que se possa pensar, a noção de autor é historicamente recente, mas de uma complexidade tal que parece não existir consenso entre os dois pratos da balança em conflito nestas questões – o direito de protecção à criação e o direito de acesso e uso da mesma.
A controvérsia é inevitável pelo conflito de interesses já referido, mas também por um conjunto de questões e implicações legais, abundantes em variedade, nuances e perspectivas. Senão vejamos:

  1. Recompensa monetária do autor
  2. Reconhecimento público e direito à menção de autoria
  3. Respeito pela integridade da obra
  4. Fronteira nem sempre evidente entre obra original e derivadas, adaptadas
  5. Gestão de direitos conexos (intérpretes, executantes…)
  6. Impossibilidade de conhecer a vontade do autor
  7. Classificação por defeito de qualquer criação como obra com copyright
  8. Existência de lobbies e círculos de interesses associados a indústrias do lazer, dos conteúdos e a grupos editoriais
  9. Possibilidade de transferir uma criação para suportes diferentes do suporte original, criando indefinições quer por alargar ou restringir abusivamente os direitos autorais. A aquisição de direitos de autor de obra impressa são extensivos ao formato digital? E neste caso, aplicam-se da mesma forma, seja online ou em CD-Rom?

Simplificar a complexidade

Num rasgo original e muito pragmático, a Creative Commons analisou as questões práticas associadas ao Copyright e desenhou um conjunto de licenças, cujo objectivo central é facilitar a vida a todos os implicados. E o impacto não é pequeno se pensarmos que o principal beneficiado é o cidadão comum.
Os problemas foram claramente balizados e as soluções surpreendentemente simples:

  1. Cabe ao autor definir que situação deseja aplicar à sua criação, ficando claro o que é e o que não é permitido fazer com a obra
  2. Reconhecimento público e menção à autoria são consagrados pela CC
  3. Respeito pela integridade da obra também faz parte do direito moral ligado à autoria
  4. Autor declara se é possível criar trabalhos a partir do seu
  5. Direitos conexos podem igualmente aplicar as CC
  6. Vontade do autor é tornada pública e conhecida para todo aquele que desejar usar a criação
  7. Alarga-se o espectro das opções de protecção para além do restritivo copyright
  8. Lobbies e interesses não encontram argumentos para destronar a clareza e funcionalidade das CC, porque não se trata de um ataque ao copyright, mas de fazer escolhas e exercer efectivamente o direito do copyright
  9. Aplica a licença a uma obra, independentemente do formato e canal.

O espírito da iniciativa CC está bem espelhado nos slogans e material que disponibilizam no seu sítio web e que acabam por resumir também os objectivos da organização.

Na realidade, CC está inscrita no movimento e filosofia mais amplos do acesso livre e difusão do conhecimento. O seu trabalho visa:

  1. Atribuir a todas as obras as liberdades e restrições que os seus autores entenderem
  2. Fomentar a partilha, a mistura e a reutilização legal e autorizada de conteúdos
  3. Aumentar a disponibilidade de obras originais, assente na crença de que “obra cria obra”
  4. Estimular a criatividade numa base livre e legal
  5. Refinar as regras do copyright, sem que se caia por falta de alternativa nas situações extremadas (copyright e domínio público)
  6. Equilibrar e fazer convergir o interesse do autor e o do consumidor/ utilizador

Na imagem, é possível observar a passagem do “All Rights Reserved” (Todos os direitos reservados) para “Some Rights Reserved” (Alguns direitos reservados), sem que se caia no domínio público (Nenhum direito reservado).
As licenças CC criam uma escala de variantes entre os dois extremos, permitindo ao autor escolher o cenário mais condizente com as suas conveniências e as do público a que se dirige, que nenhum dos cenários anteriores satisfazia.

escala_cc

Actividade organizada em 5 áreas

A Creative Commons é uma organização sem fins lucrativos, cujo produto de toda a actividade está livre e disponível para ser usado.
À semelhança de outros projectos, usa o voluntariado e os donativos para levar a cabo os objectivos, e evoluiu num breve espaço de tempo para objectivos mais amplos.

1. Apoio a comunidades
A Creative Commons dota as comunidades de um modelo prático para declarar direitos e condições de uso, mas não medeia conflitos nem tem qualquer influência nas escolhas das licenças pelos autores legítimos nem nos usos legais dos consumidores.
Nesta área foi dada prioridade a uma comunidade gigantesca que depende muito da retroalimentação dos pares – a comunidade científica. Ao projecto deu-se o nome de Science Commons, cujo objectivo é acelerar o processo de circulação das obras entre os autores e os receptores, bastante dificultado pelo circuito tradicional de publicação.
Por sua vez, a Creative Commons International encarrega-se de coordenar as contribuições dos peritos nos assuntos legais. Já a ccLearn tenta estreitar a relação com a comunidade académica. O ccMixter está orientado para a música e os remix. A pessoa interessada pode fazer download de samples e trabalhá-los, partilhando-os depois com a comunidade de forma totalmente legal. Este projecto usa a plataforma ccHost.

2. Licenças e protocolos
Criar as licenças CC, melhorá-las e funcionar como observatório da área são algumas das metas da Creative Commons. Para isso, realiza regularmente inquéritos e recolhe opiniões e experiências de pessoas e entidades sobre o uso de conteúdos na Internet. A ideia é compreender as necessidades, tanto ao nível da protecção de direitos dos criadores, como dos usos dos consumidores, procurando antecipar-se e adequar as respostas à realidade global, porque as CC pretendem ser reconhecidas como modelo universal em que todos se vejam representados.
Desta linha de actuação saem as licenças, os protocolos – para facilitar o processo de partilha e uso, e um motor de pesquisa de trabalhos com licença CC. Com esta ferramenta, fica mais fácil pesquisar trabalhos com licenças CC para uso comercial ou só para partilhar. Este interface pode ser integrado no Firefox, por exemplo.

3. Informação e divulgação
O que tem marcado o projecto desde a origem é a forte componente educativa e informativa, num esforço imparável para o tornar visível aos utilizadores.
Os meios utilizados são variados:

  • relato de casos de sucesso classificados por país, data de criação e domínio
  • documentação (tutoriais,  recomendações, especificações)
  • informação sobre a forma de licenciar o trabalho e colocar a licença visível para os interessados, seja um trabalho em texto, áudio, vídeo ou imagem
  • estatísticas e representação gráfica sobre o uso das CC
  • divulgação de eventos organizados

A Creative Commons disponibiliza uma secção de vídeos muito interessante, além de bem feita e esclarecedora.
A vontade de reunir todas as contribuições não é filosofia barata. Dada a quantidade de canais disponíveis e projectos em paralelo, dir-se-ia que o programa vive disso mesmo. Tem chat, forum, wiki, newsletter, mailing list.

4. Ferramentas
Ao longo dos anos, a CC criou ferramentas e instrumentos para implementar e usar facilmente as licenças.
A LicenseChooser.js é um widget escrito em java que permite colocar a licença em qualquer website. Para sites WordPress, existe o plugin WpLicense.
Liblicense permite que os programas usem os metadados para extrair informação sobre as licenças. Já o LiveContent encarrega-se de difundir conteúdo aberto, de identificar novos conteúdos licenciados pelas CC e de desenvolver tecnologias que apoiem essa missão.
O ccHost é um CMS para o projecto ccMixter.
O extra OpenOffice.org Add-in permite que documentos possam embeber a licença escolhida.

5. Desenvolvimento
ccLabs é a unidade de desenvolvimento por excelência, sendo dinamizada por muitos programadores e pessoas que queiram voluntariamente contribuir. As traduções são outro aspecto nesta área.

História e balanço

Já lá vão 8 anos desde a criação da CC pelo Center for the Public Domain, que reunia peritos na área da Propriedade Intelectual e Direito no ciberespaço. O mais carismático foi Lawrence Lessig.
A actividade iniciou-se em 2002 com a criação do primeiro conjunto de licenças CC, inspirada na licença GNU de software, aplicada à plataforma gigantesca que é a Internet. Esta iniciativa teve acolhimento muito positivo em todo o mundo, sendo actualmente transposta para 45 jurisdições de países.
Em 2005, seguiu-se o projecto Science Commons e outros numa tentativa de alargar o âmbito de acção sem esquecer a necessidade de especialização por áreas – música, imagens, etc.
O saldo é francamente positivo se atendermos a alguns números: estima-se em 130 milhões os trabalhos com licenças CC; as licenças encontram-se na terceira versão e são 45 os países que adaptaram à sua paisagem legislativa as CC.

Licenças Creative Commons

A quase todo o tipo de obra são aplicáveis as licenças CC – áudio (música, discursos), imagem (fotos, ilustração), vídeo (filmes, animação), texto (livros, blogs, artigos), material educativo (aulas, slides), mas em relação ao software, a Creative Commons desaconselha, porque existem licenças próprias para software – licenças da FSF e OSI.

A licença Atribuição é a mais permissiva de todas e a última é a mais restritiva, sendo associada à “publicidade livre”, ou seja, a alguém que pretende difundir, mas não permite que se use para fins comerciais nem que se altere.

Graças às várias combinações possíveis dos factores, será muito pouco provável que a pessoa não encontre uma licença que a satisfaça. Porém, o trabalho de depuração e melhoria segue a todo o vapor.

quadro_licencas_cc

Windows 7 (beta) fará esquecer o Vista?

Steve Ballmer anunciou na Consumer Electronics Show (CES) em Las Vegas a versão beta do Windows 7, cujo lançamento de versão definitiva está agendado para inícios de 2010. Durante este ano, a empresa prevê melhorar o sistema operativo e receber o feedback dos utilizadores.

Num estilo muito próprio, Steve Ballmer deu show, mas não convenceu 100%. Está muito fresca a má experiência com o Vista e é já famosa a tendência para o exagero das promessas da Microsoft. Em 2007, quando o Vista foi lançado, comentou-se que era um sistema revolucionário. É até bastante curioso passar revista a algumas imagens e notícias dessa época.

Repare-se nos slogans escolhidos para definir o Vista.

Este reparo não significa incapacidade em reconhecer as virtudes do sistema operativo da Microsoft. Essa versão do Windows apresentou-se com um aspecto gráfico cuidado e melhorou o áudio e a pesquisa. Mas os muitos problemas relacionados com incompatibilidades entre o hardware e o software, os bugs sem conta, a lentidão do sistema e a falta de sincronização entre aplicações (Vista Mail e versão mobile), ofuscaram a novidade e o lado inovador.

Estratégia

A nova versão do Windows, a sétima, daí que a designação oficial tenha sido “Windows7”, contraria a previsão da Gartner, aquando do lançamento do Vista. Segundo esta, tudo indicava que o Vista fechasse um ciclo e fosse o último representante da família Windows dos sistemas operativos para PC.  A geração seguinte seria de sistema operativo web based e modular, como começa a ser tendência, mesmo em aplicações específicas. Mas em 2 anos, contrariando as expectativas, a empresa faz sair uma versão beta para PC. Convém dizer que o Vista precisou de 5 anos completos de desenvolvimento.

O esforço de investimento e energias para conseguir o Windows7 em tempo recorde tem também muito da nova dinâmica do desenvolvimento em rede e da maior exposição ao feedback do público. A versão beta é open e dirige-se aos tradicionais PC, mas também aos populares notebooks.

Aproveitando a velha máxima da publicidade da Apple, que contrapunha um Mac a um PC (com Windows), e ficou famosa com a frase “I’m a Mac“, a Microsoft lançou uma campanha com o slogan “I’m a PC”. O próprio Steve Ballmer deu o seu contributo. A ideia é associar o PC à experiência de estar ligado ao mundo, sem paredes, via PC, telemóvel, web, em trabalho ou em lazer, mas sempre com Windows.

Are you a PC? Upload yourself

Imagine a life without walls

Your email in one/ Games it’s ok and play/ Sharing photos/ Entertainment to go

Características do Windows7

Anuncia-se mais rápido, tanto a arrancar como a trabalhar, fácil de instalar, dispondo mesmo de uma secção “Devices & Printers” que permite um controlo maior sobre o sistema. Apesar da Microsoft considerar tratar-se de uma versão maior, vários especialistas crêem que se trata de um restyling do Vista, só que com os bugs fixados e resolvidos.

O sistema, que expirará em finais de 2009, obrigando os utilizadores que usarem até lá a versão beta a adquirir a definitiva, traz as seguintes aplicações:

  • Windows mail – cliente de email básico, mas funcional. Em alternativa, a pessoa pode usar o Windows Live Mail, que não integra em termos de imagem, com o Windows7.
  • Internet Explorer 8 – navegador pouco intuitivo e que parece impor-se aos utilizadores. Se o desejo é seleccionar outro navegador para trabalhar, é necessário reconfigurar tudo em “my settings” e desactivar o “universo Windows” que daí decorre. Porque associado ao navegador impõe-se: o cliente de correio – Live mail, os mapas – Live Maps; o blog – Windows Live Spaces; a tradução – Windows Live; a enciclopédia – Encarta. Por ser uma versão beta, são várias as queixas de que bloqueia, valendo a característica copiada do Safari e do Firefox de recuperar a pesquisa antes do problema (Automatic Crash Recovery). Outra acusação, materializada recentemente, está relacionada com a maior vulnerabilidade do browser, embora outros navegadores – como o Firefox, não estejam livres de riscos.
  • Windows Media Player – é unânime a opinião favorável, porque é uma aplicação eficiente e porque simplifica o que outras complicam ao apresentarem playlists, votações, etc., não solicitados.

Na organização da informação, o Windows marca pontos, ainda que não seja inovador, ao colocar na barra inferior os íconos das aplicações abertas, bem ao jeito da Apple. Esta opção permite ver a lista dos documentos existentes de determinada aplicação quando se passa por cima do ícono. São as chamadas Jumplists, complementadas pelos thumbnails dos documentos. Estas modalidades de visualização prévia da informação do documento poupam cliques e tempo.

Ainda no capítulo da arrumação mais eficiente da informação, o sistema apresenta numa só consulta a totalidade de documentos áudio, por exemplo, que existem nos diferentes drivers, pastas, etc. A recuperação não depende da localização dos ficheiros, pelo que o processo de pesquisa fica mais transparente para o utilizador. Esta melhoria vem na linha dos esforços que a Microsoft desenvolve desde a década de 90 para obter uma combinação feliz entre sistema de base de dados relacionais e sistema de ficheiros (WinFS Windowws Future Storage), mas não é a materialização desse objectivo. Na realidade, o sistema de organização continua a ser o dos ficheiros que usam alguma metainformação para recuperar a informação, porém não se vai ao limite de associar os metadados na exaustão como no caso de uma base de dados relacional.

Uma outra característica apreciada são os Homegroups, uma espécie de P2P local. Esta funcionalidade promove a partilha de recursos entre os elementos de uma rede local, uma intranet. Podem ser partilhadas impressoras, fotos, música, vídeos, documentos. O utilizador cria o grupo e convida outros a integrarem o seu grupo de contactos. Na prática, cada membro vê e acede às pastas de terceiros a partir do seu sistema de ficheiros.

Conclusão

A Microsoft é uma empresa que se mobiliza e procura incansavelmente novas oportunidades. É esmagadora a quantidade de produtos que desenvolve e os muitos projectos em que está envolvida, alguns de longa data. As suas campanhas e agressividade comercial são sobejamente conhecidas e a publicidade é forte. No entanto, este carácter tentacular volta-se por vezes contra a própria empresa. Há ideias antigas brilhantes que foram abandonadas, há descontinuação de produto, há licenças caras por produtos com bugs inaceitáveis, há pouca liberdade de escolha para o utilizador, há uma pulverização de produtos e serviços. Se é possível em qualquer empresa consultar num mesmo site a lista completa de serviços e produtos, no caso da Microsoft, irrita, porque existe um site oficial por cada produto. A dispersão é imensa!

Sobre o Windows7, creio que a empresa dá um passo em frente ao disponibilizar uma versão gratuita. O objectivo é encurtar o tempo de testes e usar o campo de ensaio mais activo e rigoroso de todos – a comunidade internauta. O software livre já descobriu essa realidade há décadas, embora não o fizesse com o propósito de melhorar o produto à custa das pessoas, cobrando-o mais tarde.

São, no entanto, duas posturas, ambas respeitáveis e ambas funcionam. Esperemos, porém, que o Windows7 tenha um melhor acolhimento que o seu antecessor.

Cloud computing, a nuvem que se aproxima

A Internet começou por ser uma ponte: ligava por email, encurtando distâncias e tempos de espera da entrega postal e disponibilizava alguns recursos interessantes. Empresas mais arrojadas criaram nessa época os seus websites.

Na era Google, passámos todos a pesquisar e a usar as suas ferramentas, tornando-nos dependentes delas para quase tudo. Na vida pessoal, as pessoas quiseram fazer-se mais presentes na rede. Chega a vaga dos Youtubes, dos Flickrs, das redes sociais e do Twitter – acompanhar em tempo real a vida de outros e ser seguido pelos amigos ou admiradores passa a ser o desporto favorito. AO mesmo tempo, as empresas passam a ver a Internet como montra de produtos e usam aplicações que ajudam a melhorar a relação com o cliente. A Administração local e central lança vários serviços à distância e a desmaterialização passa a constituir o cavalo de batalha de decisores. Nesta altura, entidades mais afoitas abrem as suas intranets e ligam-se à Internet para o trabalho quotidiano. As tags, os blogs, as wikis, os bookmarks, invadem os desktops e são ferramentas todo-terreno – trabalho e vida privada. Assistimos a campanhas de marketing especialmente desenhadas e lançadas no Facebook e no MySpace. Tornam-se cada vez mais visíveis os casos de empresas e organismos que se ligam às redes sociais e estendem os seus serviços.

Actualmente, fala-se da transferência – literalmente – da vida das empresas e das pessoas para a nuvem, metáfora da Internet. A plataforma de comunicação e de serviços parece estar a converter-se na plataforma da vida das sociedades. Enrique Dans num dos seus posts comentava “Con la cabeza en la nube”, parecendo dar um sentido novo ao ditado, ou talvez não. Sobre andar com a cabeça nas nuvens não existe consenso de se tratar de coisa boa ou má. Vamos estando por isso atentos…

E assim fica apresentado o tema deste post – os mistérios da nuvem.

Um céu ainda muito nublado…

A nuvem, a que todos se referem, é no seu original “cloud computing”, uma expressão lida, pronunciada e escrita nos mais recentes eventos e ainda em blogs ou em notícias dispersas. Não sei se a forma reúne consenso e se é do agrado das pessoas, como não o foi o termo “web 2.0”. O tempo o dirá…
E é na verdade um termo ainda muito novo. Os resultados da consulta da expressão no Google Insights Search são bastante curiosos. O termo começa a ser usado em inícios de 2007 e apresenta um crescimento, dir-se-ia, acentuado.

cloud_evolucao

A área geográfica no mundo que mais pesquisas realiza com essa palavra é a Ásia, estando a Índia à cabeça. A supremacia asiática em “cloud” é óbvia em quantidade e posicionamento na tabela. Os EUA, a Irlanda e a África do Sul ocupam posições mais modestas!
Também é reveladora a construção das expressões de pesquisa, na medida em que nos dão indicações acerca do tipo de associação que as pessoas fazem. Essas associações são: Google, Amazon, Microsoft, IBM, todas entidades com serviços já em funcionamento, em fase de experimentação ou anunciados. Em comum têm uma estratégia neste campo.

cloud_expressoes2

Afinal o que é isso de “cloud computing”?

Como dizia, o conceito ainda é vago, mesmo entre os protagonistas do meio, como no-lo revela o vídeo do evento Web 2.0 EXPO 2008 em San Francisco. Vários nomes sonantes da área da tecnologia e da Internet foram surpreendidos com uma questão muito simples: “What is cloud computing” e difícil foi responder satisfatoriamente ao “teste”, a avaliar pelos muitos eu penso. Mas a ideia que fica pode resumir-se a: fim da tortura de ter de instalar e configurar programas e hardware; felicidade e satisfação; não se importar com o que está na nuvem desde que funcione; plataforma aonde vai ocorrer toda a actividade; virtualização; novo modelo de distribuição de serviços de computação no futuro. Diria que o tom geral é de entusiasmo e percepção de algo positivo. Há apenas um alerta nas palavras de O’Reilly, que refere a necessidade de pensar o modo de distribuição dos dados, serviços e aplicações alojadas na nuvem, deixando entrever riscos de monopólios e discriminação.

O conceito refere-se a toda a panóplia de meios e conhecimentos necessários para aceder, utilizar e fazer funcionar um programa, mas não só. Inclui a disponibilização de serviços na Internet prontos a usar, tanto para armazenamento, como para processamento, cópia de segurança, partilha da informação que queiramos ou necessitemos. De certa forma é o que já fazemos há alguns anos com aplicações de email baseadas na web (Gmail, Hotmail, Yahoo mail). A aplicação está alojada na Internet, as mensagens são guardadas na Internet. Tudo se passa à margem do nosso PC ou portátil, sendo apenas necessária uma conexão e um navegador.

Deixo o vídeo do Cloud computing in plain english que explica grosso modo o que é e como funciona na perspectiva do utilizador final.

Protagonistas no campo do cloud computing

A corrida ao Cloud computing nos últimos meses tem sido acelerada. Depois de serviços com alguns anos, como os do Google, Amazon e Yahoo, empresas como a IBM, HP, Dell, Intel, Microsoft, avançam com volumosas somas para a investigação e criação de infraestruturas nesta área. O esforço de investimento é tão forte e a necessidade de uma solução global é tão premente que se assiste a parcerias e associações. Por exemplo, a Microsoft conta com o apoio da Sun Microsystems e da Dell. A IBM cria projecto com Google, mas também avança sozinha noutros.

Outro aspecto curioso é a chamada “inovação aberta”, ou seja, a inovação nesta área não está centralizada nos investigadores de batinha branca fechados nas quatro paredes da empresa, mas compreende uma comunidade alargada de investigadores com espírito empresarial que queiram participar nos projectos referência. Para que isso seja possível, a Microsoft e IBM, por exemplo, abriram os projectos a start-up, a universidades e centros de investigação. A ideia é galgar muito terreno em pouco tempo e aproveitar ao máximo o potencial dos criativos.

As áreas de investigação e inovação resumem-se a cinco realidades ou novas exigências:

  • Explosão da informação – A quantidade de informação que já existe e que será criada coloca desafios enormes ao nível do armazenamento eficiente e recuperação dessa informação, controlo de duplicados, organização e classificação automática de informação, etc.
  • Serviços web dinâmicos – Área que procura atender à necessidade de uma perfeita integração de serviços, desenvolvimento de funcionalidades atractivas e de forte componente interactiva, pesquisa semântica, eDiscovering, etc.
  • Transformação de conteúdo – Investigação que procura melhorar os processos de tradução simultânea, conversão de formatos, representação gráfica e visual, mashups, etc.
  • Infraestuturas inteligentes  e verdes – Sector que desenvolve infraestruturas funcionais com o mínimo de intervenção humana, que integram normas e esquemas universais e que tentam retirar partido da inteligência artificial.
  • Sustentabilidade e escalabilidade – Preocupação voltada para a construção de infraestruturas e plataformas com elevados graus de performance e adaptabilidade a diferentes necessidades e a largo prazo.

Passamos agora à descrição da actividade de algumas empresas no Cloud computing.

Amazon foi uma empresa pioneira no Cloud computing. Actualmente dispõe de um conjunto de serviços de computação via Internet muito completo debaixo da etiqueta Amazon Web Services. Possui desde há muito a EC2, para processamento e armazenamento, e a S3, dedicada exclusivamente ao armazenamento de dados. Neste momento, está em fase de teste a suite de serviços online SimpleDB.

O Google foi outra empresa que entrou há anos na cloud. Actua nos três níveis e possui data centers enormes espalhados pelo mundo. Numa notícia de Setembro, Google avançava uma solução de colocação dos seus data centers em alto mar, aproveitando a energia das ondas para produzir energia e a água para refrigerar. Além de verde, esta tecnologia oferece igualmente vantagens em caso de guerras ou catástrofes naturais com a retirada imediata de zona de perigo, além de ser uma solução livre de impostos, porque fica alojada em águas internacionais. Essa ideia já foi patenteada.

A HP Labs agarrou em 20/ 30 projectos na área e está a investir fortemente. Alguns resultados visíveis: Cloud Print, Cloud View, Book Prep, Face Bubble, Snapfish, uma espécie de Photoshop online.

A IBM quer ser um parceiro das empresas e dar-lhes a opção de criar a própria nuvem ou confiar na nuvem gerida por terceiros.

Finalmente, menciono o caso da Microsoft que está a conduzir-se com bastante determinação nesta área. Além da política de abertura já referida, tem programado o lançamento do Windows Live – Azure para 2010. Também o Exchange e o Office estarão na modalidade de SaaS. A plataforma prevê hosting, armazenamento (prepara-se a construção de 20 data centers de última geração) e serviços como o CRM, por exemplo.

Segundo um relatório da Gartner, o Cloud computing vai impor-se nos próximos 5 anos e quem estiver fora da nuvem praticamente não existe. Mas em relação à expressividade do Cloud computing na actualidade, um outro estudo do The Pew Internet & American Life Project Use of Cloud Computing Applications and Services revela que nos EUA 69% da população usa cloud computing sem saber sequer o que isso é. Os serviços que contribuem para essa percentagem são sobretudo o correio electrónico, o armazenamento de fotos e o uso da suite Google Docs ou Photoshop Express. Esta realidade diz respeito quer aos consumidores quer às empresas, onde as ferramentas de e-groupware e CRM via Internet adquiriram já uma importante fatia do mercado.

Níveis e serviços

“Cloud computing” começou por estar muito associado ao hardware, mas rapidamente estendeu-se à totalidade dos elementos necessários ao funcionamento de qualquer serviço para o utilizador final, falando-se em três níveis de cloud computing, como se pode ver no esquema. Em qualquer dos níveis existe a perspectiva do serviço, porque a ideia base inerente a esta tecnologia é a de que tudo é serviço e uma espécie de self-service de outsourcing em tecnologias da informação.

Nível 1 – IaaS (Infrastructure as a Service) – Patamar formado pelos servidores, armazenamento e processadores. É a parte crítica do sistema. Ex. Amazon Elastic Compute Cloud (EC2); GoGrid…

Nível 2 – PaaS (Platform as a Service) – Constituído pela estrutura onde são instalados os programas. É configurável e pode ser adaptado às necessidades de determinada empresa. Ex. Google AppEngine; Force.com; Yahoo Pipes…

Nível 3 – SaaS (Software as a Service) – Neste sector situam-se as aplicações, programas e serviços que já estão preconfigurados e aptos a ser usados. O nível de configuração é muito reduzido, limitando-se a questões de visualização e apresentação da informação. Ex. Gmail; GoogleDocs; Force.com Sites; Zoho CRM; SAP…

Vantagens e inconvenientes

Os aspectos positivos são particularmente relevantes para as empresas, embora os perigos também sejam maiores quando pensamos neste universo de clientes do Cloud computing.

1. Serviço disponível 24/7 – Aplicações e dados ficam acessíveis desde qualquer lugar e em qualquer momento.

2. Fiabilidade – Taxa de erro e bloqueios nas máquinas de cloud computing é inferior à das nossas máquinas.

3. Uniformização da variedade – No universo Cloud computing coexistem dados oriundos de qualquer dispositivo (portátil, smartphone, etc.), aplicação, rede social ou website. No entanto, para o utilizador final tudo é transparente e está correctamente sincronizado. É o caso do serviço Live Mesh da Microsoft que se propõe reunir num único ponto toda a actividade na Internet de uma pessoa. O objectivo é proporcionar ao utilizador uma experiência única, sem saltos e sem descontinuidades.

4. Facilidade e simplicidade no acesso – Para ligar-se à nuvem, é apenas necessária a ligação à Internet e um browser.

5. Economia nos gastos de hardware, software, licenças, backups e actualizações – Esta vantagem aplica-se sobretudo às empresas, porque deixa de ser necessário montar e gerir infraestrutura e o parque tecnológico dentro de portas. E só para ter uma ideia dos ganhos, o custo por utilizador num ano do Google Apps fica em $50 enquanto uma licença MS Office fica por utilizador/ ano em $500. Deixa de ser problema decidir onde alojar o website ou como configurar o servidor web.

6. Custo baseado no uso e nas necessidades reais – Compra-se o serviço ajustado às necessidades e uso num dado momento. Se por acaso a empresa aumenta o número funcionários ou o volume de informação, pagará exactamente pelos utilizadores e Mb a mais. Desta forma, evita-se o investimento em infraestruturas, às vezes sobredimensionadas, ou em aplicações que se revelam na verdade pouco úteis ou adequadas.

7. Rentabilização efectiva de meios e investimentos – Na perspectiva dos fornecedores dos serviços de Cloud computing é muito mais fácil explorar ao máximo as infraestruturas criadas e disponibilizadas. A gestão dos servidores, dos data centers gigantescos e das plataformas de serviços tornam-se mais rentáveis na versão de Cloud computing, porque a escala de fornecimento de serviços passa a ser global, com uma gestão mais inteligente e eficiente. A título de exemplo, refiro a Amazon. Nos picos da época natalícia, o sistema de resposta aos pedidos da Amazon bloqueava e falhava. Para garantir um bom serviço, a empresa investiu brutalmente na infraestrutura. Porém, fora das épocas de maior procura, a estrutura era subaproveitada. Foi então que a Amazon começou a alugar espaço livre a terceiros. Sem a tecnologia Cloud, esta solução de optimização da infraestrutura não seria possível.

Listo agora os problemas associados à cloud, embora algumas dificuldades possam vir a solucionar-se parcialmente a curto ou médio prazo. Os peritos aconselham a que as empresas avaliem os riscos e usem serviços via Internet para informação não crítica.

1. Segurança – O alojamento de dados sensíveis em bases de dados e aplicações de terceiros é um risco considerável. Também há plataformas que oferecem mais garantias que outras ou soluções mais seguras. Por exemplo, a Blue Cloud da IBM permite criar uma nuvem corporativa dentro da grande nuvem. Há sempre a possibilidade da empresa controlar a sua infraestrutura ou confiá-lo 100% a terceiros. A segurança é o factor que mais afecta a adopção desta solução, por isso é um aspecto muito central nos prestadores de serviços de outsourcing TI. Actualmente, os modelos não respeitam integralmente as exigências legais nem os preceitos de segurança, contudo prevê-se que a segurança chegue ao Cloud computing num horizonte de tempo curto.

2. Protecção de dados e privacidade – Esta é uma área extremamente sensível e complexa, até porque os dados vão estar alojados algures na rede e as legislações de dados pessoais são nacionais. A possibilidade de cruzar dados e obter perfis é real, não havendo ferramentas eficazes para evitá-lo. Recentemente, em entrevista, a presidente da Agência Catalã de Protecção de Dados alertava para esse efeito, um problema que o Cloud computing tenderá a acentuar.

3. Dependência da ligação à Internet e disponibilidade do serviço -Os utilizadores dependerão cada vez mais da qualidade e permanência da ligação à Internet, mas também das garantias e disponibilidade real das infraestruturas e plataformas da nuvem para trabalhar.

4. Perda de controlo – Segundo o Richard Stallman da Free Software Foundation o Cloud computing é uma ameaça e chega mesmo a dizer que é uma estupidez, porque a pessoa perde totalmente o controlo e porque os preços do serviço tenderão a aumentar. Portanto, segundo este autor, a vantagem económica vai-se esfumar num futuro próximo. Também alerta para algum tipo de restrições destes serviços e cedência de direitos de dados dos utilizadores para continuarem a usufruir de determinadas condições.

5. Maior dependência – A Cloud cria um paradoxo, porque ao criar condições para um acesso livre e independente de qualquer ponto e momento, acaba por tornar-nos cada vez mais dependentes da ligação à Rede. A Internet é cada vez mais uma extensão de nós mesmos.

A passagem à nuvem parece inevitável, a crer na orientação mais recente das políticas das empresas de TI e na franca adesão das pessoas singulares e empresas à filosofia do “tudo é serviço”. Porém, não deixam de ser pertinentes algumas perguntas incómodas no ar, que terão de obter resposta brevemente, para bem da saúde e credibilidade do negócio da nuvem. A saber: que privacidade é possível no universo da nuvem? quem detém a propriedade dos dados, o utilizador do serviço ou o fornecedor? ficará mais fácil a temerosa regulação da Internet? Berlusconi acaba de afirmar essa necessidade. Será que a ideia irá encontrar adeptos?

Alargar e automatizar o acesso à informação

De há um tempo para cá multiplicam-se as referências relacionadas com conversores e técnicas de pesquisa alargadas. É um passo muito significativo no universo da informação, por isso não queria deixar de abordá-lo aqui, embora reconheça que não tenho um conhecimento cabal da matéria nem uma perspectiva bem delineada do que se está a passar, tal é a catadupa de informações, projectos retomados, abandonados, melhorados, entrecruzados, ou potenciados para diferentes usos.

O mote é normalizar para universalizar

Quem se movimenta na Rede sabe que a sua base do sucesso são os protocolos universais e as normas adoptadas por todos os que nela querem intervir. Regra de ouro para o acesso e a comunicação sem barreiras tecnológicas (e ideológicas, embora este post se ocupe das respostas dadas pela tecnologia para o acesso universal).

À necessidade de protocolos de comunicação universais, estáveis e fiáveis, juntaram-se os indispensáveis conversores de formatos. Uma profusão de formatos texto, áudio, vídeo, imagem, compressão, etc., passaram a povoar a rede. Veja-se a título de exemplo a base de dados do InfoFile.net Pontualmente, temos de converter um formato noutro para podermos aceder à informação, porque a nossa aplicação não lê o formato original de recepção. Essa incompatibilidade é muito frequente em sistemas Windows que não lêem documentos do OpenOffice nem reconhecem o flash tão usual na web.

Porém, e sem que as fases anteriores estejam de todo resolvidas, pois persistem os problemas de codificação das páginas HTML e a eterniza-se a convivência entre formatos mais adoptados e outros menos frequentes ou com código fechado, desenha-se uma fase de alcance bem mais ambicioso e de grande impacto. A conversão já não se coloca entre os formatos de uma mesma família, mas entre famílias de formatos. O que está a ser equacionado não é converter flv em avi (campo do vídeo), mas converter vídeo em texto, texto em áudio, etc.

Um futuro com contornos já visíveis

O universo de informação que consultamos através dos motores de pesquisa é assustadoramente pequeno e pobre em relação ao volume e qualidade da informação realmente disponível. Todos já ouviram falar do iceberg da web profunda, do qual só conhecemos a ponta. Se juntarmos a isso as imensas fontes de informação que estão a ser digitalizadas, a quantidade de documentos audiovisuais, que têm sido o quebra-cabeças na indexação, e a enormidade de ficheiros digitais que estão a ser criados por novas aplicações que não existiam sequer (as gravações das chamadas telefónicas, por exemplo), estamos razoavelmente conscientes do volume de informação que não é tratado nem integrado no fluxo.

Empresas, investigadores, cidadãos, trabalham na procura de soluções. E basta uma simples pesquisa (em qualquer língua) para recuperar software que converte texto em áudio ou áudio em texto. O tratamento da imagem e do vídeo são, porém, mais complexos e estão a ser liderados por empresas como o Google.

As vantagens da conversão são inúmeras e beneficiam todos. Ao utilizador final dão-lhe uma liberdade e flexibilidade até agora impossíveis. As apresentações e o website podem ser complementados com ficheiros áudio a partir de texto sempre que o visitante queira. Ditar texto que é escrito é outra vertente interessante. Mas é óbvio que a conversão da voz humana em texto está sobretudo trabalhada para o inglês e que as técnicas de reconhecimento de voz têm ainda muito que evoluir. Na viagem de carro para o emprego, ouvem-se as notícias, os blogs, o correio electrónico, o relatório que ficou por ler. Deixo o exemplo da enciclopédia Knol que oferece 243 artigos com registo áudio alternativo, basta no formulário de pesquisa avançada activar a opção “Show only knols that can be played back in audio form”.

Uma outra consequência positiva para a sociedade é a acessibilidade para pessoas com deficiência, privadas da capacidade de ouvir ou ver. Existem também soluções que convertem texto em braille e braille em texto ou voz.

Paralelamente, estas tecnologias criam novas oportunidades, beneficiando empresas atentas e inovadoras no desenho de negócios. Com uma ferramenta de conversão do áudio em texto, é possível automatizar a extracção das letras das músicas e oferecer esse extra aos clientes ou criar uma base de dados de letras com pesquisa em full text.

Mas o centro da actividade está no negócio da pesquisa e na janela de oportunidade para uma recuperação da informação mais abrangente e eficaz.

Algumas tecnologias em prova

Como referi anteriormente, as imagens e os vídeos colocam desafios maiores. Não é minha intenção passar a imagem que o único actor neste universo é a empresa Google, porque há certamente outros projectos. Mas por uma questão de comodidade e fácil acesso à informação, centrei os exemplos nesta entidade.

Google Image Labeler

Cada vez é mais frequente as empresas usarem a chamada inteligência colectiva para melhorar os seus produtos. Google Image Labeler apela à colaboração dos utilizadores de Gogole Search no sentido de ajudarem a melhorar os resultados na pesquisa das imagens. Este é um processo que está a ser adoptado por várias instituições, como a Library of Congress no Flickr, que aproveita o voluntarismo para enriquecer os metadados associados às imagens, tratando fondos grandes em pouco tempo. No artigo do blog da BC os números de visualizações, comentários e o impressionante númerod e etiquetas em todas as línguas.

A aplicação do Google Image Labeler dá à pessoa dois minutos e pretende que ela acrescente tantas etiquetas quantas as que conseguir recordar e associar à imagem. Dois aspectos devem ser tidos em linha de conta: propor etiquetas que ainda não tenham sido sugeridas pelo nosso adversário; procurar sugerir etiquetas específicas. É mais importante identificar na imagem o tipo de pássaro, por exemplo andorinha, que dizer simplesmente pássaro. Suponho que os utilizadores contribuam generosamente, porque o serviço foi concebido numa base de jogo e torna-se muito aliciante. Desconheço se é possível sugerir etiquetas noutras línguas.

Segue a minha experiência. É possível ver no canto superior esquerdo o contador do tempo e os pontos; e do lado direito, as etiquetas já sugeridas pelo adversário.

googleimagelabeler

Google Translation Center e Google Translator

A tradução de páginas web foi um dos serviços precoces da rede, havendo muita oferta. Porém, a iniciativa do centro de tradução do Google visava revolucionar e optimizar o processo de tradução automática. Pela primeira vez, foi possível traduzir línguas como o árabe para inglês e vice-versa com taxas de sucesso consideráveis. A técnica utilizada foi usar um corpus de textos traduzidos por humanos que se deu ao sistema, servindo-lhe de padrão. No caso, foram usados milhões de textos da ONU em várias línguas. Esta “aprendizagem” pelo exemplo permitiu resultados excepcionais e foi possível aperfeiçoar ainda mais o sistema com as introdução das correcções facultadas pelos tradutores humanos que se associaram ao projecto.

Lembro-me, não há muito tempo, que na página do centro era possível requisitar traduções ou tradutores e também registar-se como tradutor profissional ou amador. Essas pessoas encarregavam-se das revisões dos erros na tradução automática. Neste momento, esse serviço está reservado a colaboradores registados.

O principal objectivo deste projecto foi desenvolver um sistema eficaz de tradução que permitisse incorporar materiais até aí inacessíveis ao motor de pesquisa. Além disso, com esta técnica é possível recuperar informação em várias línguas quando a expressão de pesquisa se faz numa língua específica. Até aqui, pesquisar “história dos computadores” era diferente de “computing history”. A tendência vai no sentido de a língua da pessoa que interroga a base de dados não influir na recuperação dos resultados. Salvo se esta decide restringir os resultados por língua.

Um efeito colateral foi a criação e disponibilização do serviço doméstico do Google Translator.

Tesseract OCR

A política mais recente do Google tem sido abrir o código. Na secção Google Code é possível descarregar o software que a empresa usa no reconhecimento de caracteres de documentos digitalizados. Este software faz o reconhecimento óptico de caracteres. O scanner produz uma imagem que muitas vezes é colocada tal e qual na web sem que seja possível a exploração do texto, o que impede os motores de indexarem esse material.

Com o Tesseract os resultados não são um reconhecimento 100% perfeito, mas é mais que suficiente para a extracção de 80 a 90% do conteúdo. É uma tecnologia desenvolvida pela HP e posteriormente retomada pelo Google.

No site oficial do Google, o artigo A picture of a thousand words descreve bem a problemática inerente à digitalização. Todo o documento é transformado numa imagem digital que tem de ser processada – ou seja é preciso converter a imagem em texto. A dificuldade está em ensinar ao sistema a distinguir uma imagem de um caracter.

EveryZing, Youtube, GAudi

É antigo o sonho de tratar exaustivamente imagens e vídeos extraindo-lhes o máximo de informação. Mas até há bem pouco tempo e apesar de vários projectos –incluso o SpeechBot da HP– os resultados eram pouco promissores numa aplicação comercial e a grande escala. Assim, durante muito tempo, a única informação disponível para recuperar este tipo de ficheiro foram os dados técnicos ou, mais recentemente, algumas categorias temáticas, por assim dizer. No Google Search Image podemos desde há muito seleccionar fotos por tamanho, formato e até cor (p&b, tons cinza e cor). Mas também é possível seleccionar as imagens obtidas numa determinada pesquisa por conteúdo noticioso, conteúdo fotográfico ou caras. Nesta recuperação funciona a tércnica dos clusters, isto é, agrupam-se imagens com características comuns, tomando por base a informação contida nos URL (permite, por exemplo destacar o conteúdo noticioso), nos títulos e na descrição da imagem.

No exemplo apresentado, deixo as imagens de rostos de pessoas que de alguma forma estão associadas à expressão de pesquisa lançada: “guantánamo”.

googlesearchimage
Em Julho de 2007, Google regista na WIPO a patente para uma tecnologia que tem estado a ensaiar no EveryZing (antigo Podzinger), e que, uma vez testada e amadurecida, é transferida para o Google Audio Indexing (GAudi).

Essa tecnologia anuncia-se capaz de extrair o texto presente em imagens e vídeos. No primeiro caso, identifica e recolhe todas as marcas textuais (vamos imaginar uma imagem de uma cidade), ou seja, nomes de ruas, texto da sinalização, expressões dos estabelecimentos comerciais e edifícios. No segundo caso, além destes elementos do contexto, extrai o texto dito por pessoas.

O EveryZing está a funcionar como laboratório do GAudi e apresenta muito mais vídeos e categorias para pesquisa. O GAudi neste momento só dispõe do tema das eleições americanas com base no discurso de vários políticos. Quem desejar pode instalar no iGoogle o gadget “Elections Video Search”.

electionsvideosearchSe compararmos a pesquisa do mesmo vídeo no serviço do Youtube ou Google Video e no EveryZing, obteremos resultados distintos quanto à precisão. Enquanto no Youtube e no Google Video a pesquisa se continua a fazer com base nos textos dos títulos, na descrição do vídeo e no URL; no EveryZing a pesquisa faz-se no próprio texto pronunciado pelas pessoas.

No exemplo dado, seleccionei previamente um vídeo e uma parte do discurso. Lancei a pesquisa num e noutro motor com o critério de que me pesquisasse exactamente aquela frase. Como era de prever, recuperei o vídeo no EveryZing, mas não no Youtube ou no Google Video, apesar do vídeo em questão se encontrar nessas colecções. No futuro, estas ferramentas serão certamente estendidas a todos os produtos da empresa.

googlevideoyoutube

Deixo agora o ecrã do EveryZing.

everyzing

Picasa

Para rematar, apresento uma última técnica que está a ser trabalhada e que contribui para um acesso a mais informação e por mais pessoas.

O serviço Google Picasa ajuda à catalogação das fotos ao disponibilizar uma tecnologia que procura similitude nas expressões faciais de fotos de pessoas. O mesmo já está a ser aplicado nos vídeos e os principais motores de pesquisa – Google, Live Search e Exalead, já têm incorporada essa característica.