Windows 7 (beta) fará esquecer o Vista?

Steve Ballmer anunciou na Consumer Electronics Show (CES) em Las Vegas a versão beta do Windows 7, cujo lançamento de versão definitiva está agendado para inícios de 2010. Durante este ano, a empresa prevê melhorar o sistema operativo e receber o feedback dos utilizadores.

Num estilo muito próprio, Steve Ballmer deu show, mas não convenceu 100%. Está muito fresca a má experiência com o Vista e é já famosa a tendência para o exagero das promessas da Microsoft. Em 2007, quando o Vista foi lançado, comentou-se que era um sistema revolucionário. É até bastante curioso passar revista a algumas imagens e notícias dessa época.

Repare-se nos slogans escolhidos para definir o Vista.

Este reparo não significa incapacidade em reconhecer as virtudes do sistema operativo da Microsoft. Essa versão do Windows apresentou-se com um aspecto gráfico cuidado e melhorou o áudio e a pesquisa. Mas os muitos problemas relacionados com incompatibilidades entre o hardware e o software, os bugs sem conta, a lentidão do sistema e a falta de sincronização entre aplicações (Vista Mail e versão mobile), ofuscaram a novidade e o lado inovador.

Estratégia

A nova versão do Windows, a sétima, daí que a designação oficial tenha sido “Windows7”, contraria a previsão da Gartner, aquando do lançamento do Vista. Segundo esta, tudo indicava que o Vista fechasse um ciclo e fosse o último representante da família Windows dos sistemas operativos para PC.  A geração seguinte seria de sistema operativo web based e modular, como começa a ser tendência, mesmo em aplicações específicas. Mas em 2 anos, contrariando as expectativas, a empresa faz sair uma versão beta para PC. Convém dizer que o Vista precisou de 5 anos completos de desenvolvimento.

O esforço de investimento e energias para conseguir o Windows7 em tempo recorde tem também muito da nova dinâmica do desenvolvimento em rede e da maior exposição ao feedback do público. A versão beta é open e dirige-se aos tradicionais PC, mas também aos populares notebooks.

Aproveitando a velha máxima da publicidade da Apple, que contrapunha um Mac a um PC (com Windows), e ficou famosa com a frase “I’m a Mac“, a Microsoft lançou uma campanha com o slogan “I’m a PC”. O próprio Steve Ballmer deu o seu contributo. A ideia é associar o PC à experiência de estar ligado ao mundo, sem paredes, via PC, telemóvel, web, em trabalho ou em lazer, mas sempre com Windows.

Are you a PC? Upload yourself

Imagine a life without walls

Your email in one/ Games it’s ok and play/ Sharing photos/ Entertainment to go

Características do Windows7

Anuncia-se mais rápido, tanto a arrancar como a trabalhar, fácil de instalar, dispondo mesmo de uma secção “Devices & Printers” que permite um controlo maior sobre o sistema. Apesar da Microsoft considerar tratar-se de uma versão maior, vários especialistas crêem que se trata de um restyling do Vista, só que com os bugs fixados e resolvidos.

O sistema, que expirará em finais de 2009, obrigando os utilizadores que usarem até lá a versão beta a adquirir a definitiva, traz as seguintes aplicações:

  • Windows mail – cliente de email básico, mas funcional. Em alternativa, a pessoa pode usar o Windows Live Mail, que não integra em termos de imagem, com o Windows7.
  • Internet Explorer 8 – navegador pouco intuitivo e que parece impor-se aos utilizadores. Se o desejo é seleccionar outro navegador para trabalhar, é necessário reconfigurar tudo em “my settings” e desactivar o “universo Windows” que daí decorre. Porque associado ao navegador impõe-se: o cliente de correio – Live mail, os mapas – Live Maps; o blog – Windows Live Spaces; a tradução – Windows Live; a enciclopédia – Encarta. Por ser uma versão beta, são várias as queixas de que bloqueia, valendo a característica copiada do Safari e do Firefox de recuperar a pesquisa antes do problema (Automatic Crash Recovery). Outra acusação, materializada recentemente, está relacionada com a maior vulnerabilidade do browser, embora outros navegadores – como o Firefox, não estejam livres de riscos.
  • Windows Media Player – é unânime a opinião favorável, porque é uma aplicação eficiente e porque simplifica o que outras complicam ao apresentarem playlists, votações, etc., não solicitados.

Na organização da informação, o Windows marca pontos, ainda que não seja inovador, ao colocar na barra inferior os íconos das aplicações abertas, bem ao jeito da Apple. Esta opção permite ver a lista dos documentos existentes de determinada aplicação quando se passa por cima do ícono. São as chamadas Jumplists, complementadas pelos thumbnails dos documentos. Estas modalidades de visualização prévia da informação do documento poupam cliques e tempo.

Ainda no capítulo da arrumação mais eficiente da informação, o sistema apresenta numa só consulta a totalidade de documentos áudio, por exemplo, que existem nos diferentes drivers, pastas, etc. A recuperação não depende da localização dos ficheiros, pelo que o processo de pesquisa fica mais transparente para o utilizador. Esta melhoria vem na linha dos esforços que a Microsoft desenvolve desde a década de 90 para obter uma combinação feliz entre sistema de base de dados relacionais e sistema de ficheiros (WinFS Windowws Future Storage), mas não é a materialização desse objectivo. Na realidade, o sistema de organização continua a ser o dos ficheiros que usam alguma metainformação para recuperar a informação, porém não se vai ao limite de associar os metadados na exaustão como no caso de uma base de dados relacional.

Uma outra característica apreciada são os Homegroups, uma espécie de P2P local. Esta funcionalidade promove a partilha de recursos entre os elementos de uma rede local, uma intranet. Podem ser partilhadas impressoras, fotos, música, vídeos, documentos. O utilizador cria o grupo e convida outros a integrarem o seu grupo de contactos. Na prática, cada membro vê e acede às pastas de terceiros a partir do seu sistema de ficheiros.

Conclusão

A Microsoft é uma empresa que se mobiliza e procura incansavelmente novas oportunidades. É esmagadora a quantidade de produtos que desenvolve e os muitos projectos em que está envolvida, alguns de longa data. As suas campanhas e agressividade comercial são sobejamente conhecidas e a publicidade é forte. No entanto, este carácter tentacular volta-se por vezes contra a própria empresa. Há ideias antigas brilhantes que foram abandonadas, há descontinuação de produto, há licenças caras por produtos com bugs inaceitáveis, há pouca liberdade de escolha para o utilizador, há uma pulverização de produtos e serviços. Se é possível em qualquer empresa consultar num mesmo site a lista completa de serviços e produtos, no caso da Microsoft, irrita, porque existe um site oficial por cada produto. A dispersão é imensa!

Sobre o Windows7, creio que a empresa dá um passo em frente ao disponibilizar uma versão gratuita. O objectivo é encurtar o tempo de testes e usar o campo de ensaio mais activo e rigoroso de todos – a comunidade internauta. O software livre já descobriu essa realidade há décadas, embora não o fizesse com o propósito de melhorar o produto à custa das pessoas, cobrando-o mais tarde.

São, no entanto, duas posturas, ambas respeitáveis e ambas funcionam. Esperemos, porém, que o Windows7 tenha um melhor acolhimento que o seu antecessor.

Anúncios

Algumas ideias discutidas no OSWC 2008

O encontro anual do Open Source World Conference 2008 foi na cidade de Málaga. Registou 8000 participantes, várias sessões técnicas e comerciais de produtos e soluções e meia dúzia de grandes conferências subordinadas a temas relacionados com a problemática do software livre na actualidade.

Não queria deixar de comentar algumas participações, começando pela intervenção de Tim O’Reilly na abertura do evento. Depois de referir que o “open source” não se aplicava somente ao software, mas a todo o saber que uma pessoa decide partilhar com outros – deu como exemplo as propostas registadas na revista “Make” da sua editora, avançou que, no futuro, a questão por-se-á cada vez mais em termos de liberdades de acesso e uso. Porém, com uma variante importante: passaremos da centralidade no “code reuse” ao “data reuse”. Dada a tendência para o software e hardware estarem algures na rede sem necessidade de instalação – casos já do Google Docs, do Zoho e de uma série de aplicações específicas que estão a migrar para versões “live” e “on demand”, além da tecnologia do “cloud computing“, deixa de fazer sentido focalizar a defesa da liberdade das pessoas na possibilidade de redistribuir e instalar o software. A grande luta dar-se-á ao nível dos conteúdos e dos serviços. Nessa área é que ainda há muito trabalho para fazer de forma a garantir a liberdade e acesso universal ao conhecimento.

Em tom de provocação, O’Reilly explicou na sua intervenção por que razão gosta dos “hackers” (não confundir com crackers”!). Segundo ele, os hackers são quem verdadeiramente inova. Aliás, numa conferência posterior, Marcelo Branco da Associação Software Livre do Brasil disse que nos últimos 14 anos não se tinha criado nada de inovador nas empresas comerciais. Esclareceu que as entidades mais inovadoras são as PME e os programadores independentes. Mesmo as grandes empresas que enveredaram por uma estratégia de participação no software livre – caso da IBM, Sun Microsystems, Novell, não conseguem o fervilhar de ideias que ocorre em empresas mais pequenas e ágeis.

Num outro debate, que teve por tema “Software livre e sustentabilidade”, foi mais ou menos consensual a ideia de que o software livre é sustentável. A divergência veio sobretudo da participação de Javier Romañach Cabrero, presidente do Foro de Vida Independente, que teimou em defender o software proprietário, porque lhe dava meios de aceder à informação que o software livre não permitia, sendo ele paraplégico. Achei muito estranha aquela crítica tão definitiva, mas depois apercebi-me de que a acessibilidade a que se referia não tinha só que ver com tecnologia adaptada a necessidades da pessoa com deficiência, mas estava muito associada à indisponibilidade para aprender. A dada altura, o próprio afirmou que não tinha que saber o que era fazer um “download”, nem o que eram versões. Ora todos sabemos que o uso de tecnologia implica uma formação mínima e que a sociedade da informação consolidada requer elevados níveis de literacia dos cidadãos. A acessibilidade é um tema vasto e com vários níveis de cumprimento. Podemos criar software nada acessível para a maioria da população, se condicionamos o seu uso ao pagamento de uma quantia em dinheiro. Isto é uma barreira à acessibilidade, bem como uma atitude obstinadamente fechada à aprendizagem. Além disso, verifiquei que na área do software livre existe desenvolvimento de produtos e tecnologia específicas. Numa simples pesquisa recuperei a OATS (Open Source Assistive Technology Software) que apresenta uma lista de produtos prontos a descarregar. É verdade que as soluções não vêm instaladas previamente, mas existem. O que é necessário é que a pessoa interessada procure ou recorra ao apoio de associações que dão a conhecer e ensinam a trabalhar com essas tecnologias.

A terminar, refiro o debate “Existe a neutralidade tecnológica?” que reuniu Javier de la Cueva, um advogado especialista em Direito digital, Marcelo Branco da Associação de Software Livre e Campus Party no Brasil, Juan Carlos Rodríguez Ibarra, ex-presidente da Junta de Extremadura, Francis Pisani, jornalista do El PaísEl Mundo.

Defenderam que a tecnologia não deve ser neutra, porque os governos e poderes locais têm a obrigação de avançar com políticas públicas, que reflectem necessariamente opções. Escolher a solução software livre para serviços públicos e comunidades é uma boa aposta, porque evita que os organismos fiquem prisioneiros de empresas e estimula o desenvolvimento e a inovação do tecido social e empresarial regional. A neutralidade nesta matéria significa inacção e indiferença.

Portanto, foi consensual que ao nível da tecnologia deve haver uma escolha clara e assumida pelos poderes políticos. Contudo, o receio de todos está na rede. Se a tecnologia nunca é neutra, a rede deve sê-lo sob pena de desaparecer a liberdade de expressão e o espaço para todos, que tem caracterizado a Internet. Marcelo Branco mencionou que algumas leis podem pôr em perigo esse estado de coisas. Referiu a Convenção de Budapeste pós 11 de Setembro, também conhecida por Convenção do Cibercrime, que limita direitos, liberdades e garantias universais para combater o terrorismo.

Casos de má convivência entre os direitos dos cidadãos e os interesses de empresas vêem-se diariamente materializados nos meios de comunicação social. Veja-se, por exemplo, a tentativas de aplicar uma lei de Propriedade Intelectual desajustada à realidade da Internet que criminaliza todo aquele que descarrega música ou filmes que a tecnologia lhe permite; considere-se a pressão junto de fornecedores de serviços para que policiem os seus clientes e forneçam os logs (ficheiros de acesso com dados das pessoas que usaram o serviço e quando); antecipe-se a possibilidade de se vir a acusar programadores de crime penal por escreverem código reverso, ou seja, por compatibilizarem software livre com software proprietário, tentando perceber o que está na caixa negra do software comercial. Um exemplo paradigmático é o OpenOffice. A aplicação Writer, correspondente ao Word do Office, lê e grava ficheiros de extensão.doc, mas a equipa que o fez nunca teve acesso ao código da aplicação da Microsoft. Por tentativa-erro e programação e reprogramação, conseguiu simular o Word. Esta actividade poderá vir a ser considerada crime e todo o espaço de desenvolvimento e inovação do software livre estará comprometido.

Foi para estes cenários que os intervenientes quiseram chamar a atenção, acreditando que é necessária cada vez mais formação das pessoas para protegerem as suas liberdades. Apesar de se prever o convívio entre software livre e comercial, ficou claro que o software livre está mais de acordo com o novo modelo social da era pós-Internet, onde a ideia de comunidade e os direitos de expressão são reais.

Competições na área da recuperação da informação

Um dos motores da inovação é, quer se goste quer não, a competição e o jogo. É muito comum nas áreas científicas, como astronomia, robótica, inteligência artificial, etc. A área da Information Retrieval também tem as suas competições, as TREC Text REtrieval Conference.
As “conferências-desafios” realizam-se anualmente e a elas concorrem investigadores, a título individual, universidades ou organismos governamentais.
Trata-se de uma iniciativa do NIST National Institut of Standards and Technologies e do Departamento de Defesa norte americano.
A ideia faz lembrar um jogo para passar o tempo, mas que tem imensa importância e impacto no sector da indexação e recuperação automáticas. Muitos produtos comerciais e ferramentas que conhecemos têm incorporadas técnicas que foram trabalhadas nestas competições. Aliás, um dos grandes objectivos da iniciativa é acelerar o processo de transferência tecnológica do meio académico ao mercado e à comunidade. Outro objectivo óbvio é a avaliação de sistemas de indexação e recuperação da informação.

Linhas de trabalho…
Não se pense que estas competições se desenrolam com atenção única à recuperação de texto. Existem uma série de áreas nas quais os candidatos se podem inscrever. Por exemplo: Blog (exploração da pesquisa de informação na blogosfera), Genoma (pesquisa de informação relacionada com a sequência dos genes, mas também com a documentação e laboratórios), Legal, Vídeo, Spam, etc.
Há uma área curiosa que é a das Perguntas. O objectivo é trabalhar a pesquisa e apresentação de informação que não seja um conjunto de textos, mas informação já “elaborada” e especialmente preparada para atender à pregunta realizada. Em geral, essa pregunta é feita em linguagem natural, que é outro trabalho de Hércules…
Uma área com bastante visibilidade, que até originou umas conferências próprias, é a das Línguas. Essas competições chamam-se CLEF (Cross-Language Evaluation Forum) e têm muita expressão na Europa, conhecendo o apoio directo de DELOS Network of Excellence for Digital Libraries. E compreende-se porquê. Não só, porque as colecções são em várias línguas, sobretudo se entendermos a biblioteca digital como sem fronteiras, veja-se o projecto da Biblioteca Digital Europeia, mas também porque cada vez mais os públicos são provenientes de vários países.
Uma pessoa que consulta um sistema de informação na sua língua materna deve recuperar não só os documentos nessa língua, mas todos os que existem, mesmo que noutras línguas. Isto obriga a que os sistemas de indexação e recuperação das colecções estejam preparados para “compreender” a query, a traduzi-la nas línguas em que existem os documentos e a apresentar os mais interessantes para essa necessidade.
É habitual nestes casos o uso de dicionários, tesauros, vocabulários controlados, metadados, ou combinações destes meios. Babelfish, Systran, Globallink Power Translator são algumas das ferramentas que beneficiaram das conferências e do “gozo” colectivo que geram.
Apesar de haver muitas áreas a concurso, o que é natural é que as entidades se especializem num ramo, porque é impossível dominar todas as especificidades. Essa escolha está sempre relacionada com projectos que já desenvolvem nas suas instituições ou com necessidades reais das suas comunidades.

“Regras do jogo”
O funcionamento é simples: existe uma colecção enorme de documentos e um grupo de perguntas (topics). Na colecção geral de documentos estão os que interessa recuperar para cada uma das perguntas (pool), mas é claro que o universo de documentos é muito maior e não se limita aos documentos que se relacionam com as respostas.
O “jogo” consiste em preparar e configurar os sistemas de modo a conseguir nos resultados:

  • recuperar todos os documentos assinalados como relevantes para uma determinada pregunta (recall)
  • ordenar esses documentos relevantes nas primeiras posições do ranking (precision)

Na imagem podemos ver que o sistema B foi mais eficiente que o sistema A, porque recuperou mais documentos do total de relevantes. Já o sistema A apresenta muitos documentos da colecção que não são importantes para a pergunta formulada.

Uso e investigação

No III Encuentro Ibérico de Docentes e Investigadores en Información y Documentación, Miquel Térmens [Departamento de Biblioteconomia e Documentação da Universidade de Barcelona] lançou uma proposta de estudo da investigação de uma instituição a partir do uso das revistas electrónicas.

Está mais ou menos estabelecida a prática de medir a produção em investigação através do número de artigos científicos e teses publicadas. A análise das referências de trabalhos por outros é também um indicador desse dinamismo e impacto da investigação. Nesta proposta, porém, o facto mais interessante é focar a análise não no resultado da investigação, mas no processo que a antecede e a alimenta, ou seja, no consumo de informação pelos investigadores.

Os resultados apresentados circunscreveram-se ao estudo do Consorcio de Bibliotecas Universitarias de Cataluña (CBUC) e às revistas electrónicas.

Foi possível concluir que havia assimetrias significativas no uso das revistas electrónicas pelas diferentes instituições do consórcio e que a um maior consumo estava associado um nível de investigação superior.

Em suma, os estudos de uso dos recursos devem servir para gerir as colecções e medir a satisfação dos utilizadores, mas também constituem um indicador interessante para a avaliação da investigação.