Welcome to SafariU

São as boas vindas do produto da O’Reilly Media, distribuidora dos livros Safari Books, que foi lançado em Julho de 2005.

A escolha deste tema está intimamente ligada ao post publicado sobre Tim O’Reilly e o paradigma do Open Source. Há gente que não só pensa como age em conformidade. Este produto é a resposta da empresa de Tim à Web e a uma postura mais aberta e participada.

Senão vejamos:

Uso de normas e procura da interoperabilidade. Para aceder, apenas é preciso um simples registo. Não são necessários requisitos especiais para ler, descarregar ou partilhar recursos. As ferramentas são as que qualquer utilizador comum possui para usar a Internet: um navegador!

Arquitectura de participação. O projecto SafariU vive da colecção de livros e artigos da empresa, de uma selecção de sítios web interessantes, mas enriquece sobretudo com as contribuições da comunidade inscrita que troca, aperfeiçoa e desenvolve melhores materiais. O produto final é o que nenhuma empresa do mundo ou grupo de peritos é capaz de produzir e num espaço tão curto de tempo. Esta é a oportunidade para as empresas de que falava Tim, aproveitar e motivar as pessoas para usarem, comprarem e melhorarem os produtos e os serviços.

Adaptação ao utilizador final. O desenho do negócio foi pensado e orientado na sua totalidade pelos interesses dos utilizadores. O professor pode criar, publicar, partilhar e trocar impressões ou reutilizar o material de outros. O aluno tem a possibilidade de adquirir só o que necessita para cada disciplina – um capítulo de um livro, um artigo específico, etc. O cliente fica satisfeito e o produto é vendido a preço justo e adequado a cada circunstância.

Open Source e crescimento sustentado

Uma figura marcante na paisagem actual da Internet e evolução tecnológica é Tim O’Reilly.

Fundador da O’Reilly Media, apoiante do software livre e do movimento Open Source, este irlandês é apontado como o criador do termo Web 2.0.

Tim é um observador atento da evolução da indústria do software e de empresas que cresceram à sombra do software livre.

Para este empresário, o movimento de Open Source é uma oportunidade de ouro para as empresas. O sinal mais elucidativo dessa vitalidade é o uso massivo na Internet de Linux ou baseados em Open Source. Ao nível dos sistemas operativos, o Windows predomina, mas o HTML, o XML, os servidores Apache, as bases de dados MySQL, as linguagens Php, Perl, Python, os navegadores, os serviços 2.0, são fruto de uma tecnologia aberta e baseada em normas. Ou seja, os desenvolvimentos recentes da Internet têm na sua maioria a marca do Open Source. Além disso, a plataforma do futuro não terá por base os PC, mas a Internet, veja-se a oferta de serviços de edição de texto ou imagem, a folha de cálculo, etc. sem que seja necessário instalar qualquer programa no PC.

Porém, para que uma empresa construa um futuro a longo prazo e verdadeiramente sustentável, é forçoso que três condições se cumpram:

Uso de normas e procura de interoperabilidade. O isolamento de um produto ou serviço não sobrevive, porque o mercado exige que haja integração e comunicação de uns com os outros.

A ideia dos críticos que acusam o Open Source de destruir as empresas e de não respeitar a propriedade intelectual é falsa. E Tim expõe as razões: o software não é um fim em si mesmo e constitui apenas uma parte do processo.

Na verdade, segundo este autor, o Open Source dinamiza o mercado, serve o interesse dos consumidores e cria novas oportunidades de negócio, porque ramifica o mercado, reparte essas mesmas oportunidades por empresas mais pequenas e inovadoras.

Ao contrário, a lógica das normas proprietárias, das patentes e do proteccionismo, cria desequilíbrios, desregula o mercado e origina os monopólios.

Arquitectura de participação. Tim relembra que nos primórdios da informática e da Internet, no meio universitário, a filosofia predominante era a da partilha. Além disso, a base da Internet são protocolos abertos, universais. O movimento Open Source não fez mais que ir beber a essas origens de partilha e comunicação. Uma empresa viável é aquela que compreende e valoriza a participação e a dinâmica criada através dela.

Adaptação do software ao utilizador final. Cada vez mais, os produtos e serviços oferecidos não são um resultado, mas um processo, em que cada actor acrescenta valor, incluso os utilizadores.

Por várias vezes, em conferências e livros, Tim O’Reilly menciona os casos bem sucedidos de Google, Amazon, eBay ou Yahoo. Apesar de empresas comerciais, usam base e filosofia de Open Source. A seu segredo foi dar espaço à contribuição do utilizador para criar os efeitos benéficos da rede e apostar na integração, compatibilidade e interoperabilidade entre sistemas e aplicações.

Este autor é da opinião de que Google poderia perfeitamente revelar o famoso algoritmo do PageRank e que Amazon poderia disponibilizar o One Clic, mas que resquícios da lógica comercial os impedem de o fazer.

MESUR, a avaliação multidimensional

A avaliação do impacto é tema de grande actualidade, sobretudo com a recente afirmação de alguns projectos open access ligados a repositórios ou a revistas (arXiv, PLOS). Os lugares de trânsito da comunidade científica estenderam-se a outros meios, vão muito mais além que as publicações do circuito tradicional.

As recentes práticas no ambiente digital, possibilitadas pelos novos serviços e plataformas, pulverizaram e multiplicaram as manifestações da actividade da comunidade académica. Avaliar a produção de um grupo de investigação pelo factor de impacto (ISI Impact Factor) é manifestamente insuficiente.

O projecto MESUR, financiado pela Fundação Andrew W. Mellon, pretende criar um modelo de avaliação mais amplo e imediato dessa actividade e produção.

No seu sítio web encontra-se informação sobre o projecto:

  • Duração: Outubro de 2006 – Outubro de 2008
  • Coordenador: Herbert Van de Sompel (Laboratório de Los Alamos)
  • Investigador principal: Johan Bollen
  • Financiamento: Andrew Mellon W. Foundation
  • Resultados: Modelo formal de avaliação, Linhas de orientação/ recomendações

MESUR diferencia-se das metodologias habituais quanto à abrangência e à avaliação em tempo real. Considera os critérios convencionais – citações, contagem dos clics (visualizações…), mas também tudo o que ocorre nas redes sociais e nos motores de pesquisa.

Parâmetros

Avaliação tradicional

Modelo MESUR

Actualização da informação Existe um intervalo de tempo entre a publicação e a avaliação do impacto (2 anos em média) Informação da avaliação está mais próxima do momento em que é conhecida, porque o uso é registado de imediato após a publicação/ depósito, encortando tempo de reacção
Universo de elementos avaliados Publicações formais (revistas, sobretudo) Analisa todo o tipo de comunicação científica: formal ou informal (redes sociais, motores de pesquisa), ou seja, está mais próximo dos workflows dos actores
Objectos de avaliação Avalia autores, artigos, instituições Avalia autores, leitores, profissionais
Instrumentos de avaliação web logs web logs, estatísticas de uso
Dimensão avaliativa monodimensional multidimensional e cruzada

Os maiores desafios para a equipa que trabalha esta proposta está em recolher uma massa de dados representativa, em validar esses dados e enriquecê-los semanticamente com relações (triples).

Projecto Mesur

Em Outubro, serão conhecidos as conclusões desta proposta que irá certamente modificar a forma de avaliar no futuro. O mapa de avaliação da comunicação científica será mais fiel e actual. Disso não têm dúvidas os promotores, aliás sustentados pelos resultados alcançados até agora. Existem instituições, cuja avaliação interna se aproxima do modelo global, outras em que existe uma marcada diferença. Também, regra geral, não é coincidente a análise do factor de impacto com a de uso.

A combinação de indicadores e o cruzamento de fontes de dados, correctamente controlados e validados, são sem dúvida um bom contributo na direcção de uma avaliação mais global e fidedigna.

Mais interoperabilidade nos repositórios

Todos (re)conhecemos a importância do protocolo OAI-PHM nos repositórios digitais. A normalização e a possibilidade de exportar/ importar metadados massivamente representou uma revolução na visibilidade e na troca eficaz de informação sobre os recursos.

Porém, desde Outubro de 2006, está a ser trabalhada uma especificação do protocolo conhecida como OAI-ORE (Object Reuse and Exchange). O financiamento é da Andrew Mellon Foundation e os corrdenadores do projecto são Carl Lagazote (Universidad de Cornell) e Herbert Van de Sompel (Laboratório de Los Alamos).

É importante dizer que OAI-ORE não substitui OAI-PHM. Ambos trabalham a interoperabilidade, mas a níveis bem diferentes. OAI-PHM está centrado nos metadatos e OAI-ORE ocupa-se dos objectos digitais, os recursos, se quisermos chamar-lhes assim.

Os objectivos da equipa e da comunidade são:

  • permitir a troca de recursos entre repositórios distribuídos
  • facilitar a reutilização de recursos em diferentes contextos
  • inscrever os recursos nos workflows das comunidades a quem esses recursos interessam

Tornar isto realidade implica transformar os repositórios em vértices de uma rede imensa que comunicam (recebem e enviam) com todos os outros actores da Web. As máquinas não sabem o que são repositórios, mas sabem o que são URIs e a ideia é trabalhar os elementos com identificadores e direcções estáveis.

OAI-ORE contempla 3 tipos de elementos:

  • recursos, que têm o seu URI
  • agregações de recursos, a que também são atribuídos URI
  • mapas de recursos, que são representações de recursos e agregações, que têm o seu URI

Recursos, agregações e mapas funcionam como “recursos”, em essência, como descrição, como identificação. Neste processo é fundamental a sintaxe RDF e Atom.

Em termos práticos, é possível:

  • recuperar de forma transparente todas as partes de um recurso (páginas, capítulos, volumes de um mesmo recurso);
  • controlar e escolher entre versões de um mesmo documento (versão inicial e actualizada de um artigo, livro, etc);
  • identificar obras, manifestações e derivações (texto e sua adaptação ao teatro, original e traduções…);
  • escolher entre os vários formatos disponíveis para um mesmo recurso;
  • cruzar a informação de um artigo científico num repositório (ej. arXiv) com fotos, imagens em outro serviço (ej. Flickr), com dados, desenhos de moléculas noutro repositório temático, com outros artigos em CiteuLike…

A aplicação imediata de ORE é o campo científico e o ensino (repositórios institucionais, repositórios temáticos, dataset warehouse, repositórios de revistas…), mas não é difícil prever que é potencialmente interessante para muitas outras áreas.

Lessig, monopólios e corrupção

Serve este post para estrear uma rubrica que me parece fundamental na actualidade que vivemos – conhecer personalidades que moldam e representam correntes importantes da Internet, da informação e dos caminhos futuros. Os protagonistas da Rede são os anónimos, mas é certo que o trabalho conceptual e os princípios de muitas realidades foram fruto de contributos e iniciativas de indivíduos que se destacaram.

Lawrence LessigLawrence Lessig é um desses artífices que dedicou energia e esforço para um sistema mais justo e um acesso mais livre e global. Lessig é professor de Direito em Stanford e fundador da Creative Commons. Durante dez anos deu conferências em todo o mundo sobre o uso abusivo do direito de cópia e publicou quatro livros, onde expõe as suas ideias, casos reais e as consequências de uma demissão dos organismos reguladores e dos cidadãos em matéria de propriedade intelectual.

Desde Junho de 2007, Lessig retirou-se da cena e explicou que não abandonava o projecto, simplesmente que ia dedicar-se mais à luta contra a corrupção. Está convencido que o cerne da questão está nos políticos que se deixam subornar e embarcam em decisões que ferem o interesse público. Isso é particularmente verdade nos EUA, onde a protecção dos indivíduos face a interesses comerciais é mais fraca que na Europa. Durante todo este tempo, Lessig tentou sensibilizar o Congresso norte-americano, onde goza de alguma influência junto dos senadores conservadores, apesar de assumir uma postura liberal.

Free software, Free culture, Free society, Net neutrality

Estas quatro expressões povoam os livros de Lessig e sintetizam o seu pensamento. A centralidade no software é perfeitamente justificada, porque é a base da construção da sociedade da informação. Criar constrangimentos legais a esse nível inviabiliza um processo de globalização mais equilibrado, além de retirar ou diminuir a capacidade e a iniciativa de trocar, inovar, aperfeiçoar algo que já exista.

A neutralidade da net significa que não há cargas políticas, interesses económicos, estratégias monopolistas por trás de autênticos bunkers legais. Há países que compreenderam muito rapidamente o poder que o software livre lhes permitia – o Brasil, por exemplo. O ministro da Cultura, Gilberto Gil, explicou que a adopção de Linux não foi por questões economicistas, antes porque é uma estratégia de desenvolvimento do próprio país.

Livros de Lessig:

Code and other laws of cyberspace (2000). Título em que refere a possibilidade de o controlo exercido no mundo real contaminar a Internet. É um alerta para os optimistas que acreditam que não é possível controlo algum. Lessig apela a uma atitude mais activa e consciente de todos.

The future of ideas (2001). Trata-se de um elogio à energia do colectivo que, uma vez conectada, se revela criativa e inovadora.

Free culture (2004). Inteiramente dedicado à propriedade intelectual e às fronteiras entre o copyright e alternativas. O tradicional copyright é anti-natural no ambiente digital.

Code version 2.0 (2006). Regresso ao tema do possível controlo da Internet. Para Lessig, o comércio é o motor dessa pressão e existem meios para controlar muito mais que aquilo que é possível fazer no meio real. Defende um modelo de arquitectura da Internet em que exista neutralidade, liberdade e possibilidade de escolha.

Adeus, password

Quantos de nós não se questionou acerca da quantidade de logins e passwords que coleccionamos à medida que realizamos mais uma inscripção ou um serviço? E quantos já não passaram pelo terror de encontrar um login que ainda não tenha sido atribuído? Ficámos, nessas alturas, com a sensação que o mundo inteiro já se registou e aceitámos de boa vontade a sugestão “clotilde63@yahoo.com” ou “estoufarta@hotmail.com”. Sem muito esforço, acumulamos uma série de códigos, além de termos de os mudar periodicamente por segurança. O OPEN ID vem em nosso auxílio e, ainda que pareça um clone ou uma variação de DOI, não se aplica à identificação de objectos ou unidades de informação, mas às pessoas que usam a rede e os múltiplos serviços por ela proporcionados. Trata-se de um serviço de identificação para a Internet, uma espécie de BI digital. É em formato aberto, descentralizado, livre e a pessoa é a detentora única desse código e da informação pessoal relacionada. OPEN ID Fundation é a entidade que arbitra. Existem já muitos serviços que proporcionam esta identificação do utilizador: BBC, AOL, Google, Yahoo… Flickr, Blogger, Technorati, WordPress. O universo dos blogs continua a ser muito dinâmico e precoce no uso e integração de novas tecnologias e soluções.

Brad Fitzpatrick (criador do OpenID) disse: “Nobody should own this. Nobody’s planning on making any money from this”.

Mais informação em:

http://openid.net/

http://openiddirectory.com

Uso e investigação

No III Encuentro Ibérico de Docentes e Investigadores en Información y Documentación, Miquel Térmens [Departamento de Biblioteconomia e Documentação da Universidade de Barcelona] lançou uma proposta de estudo da investigação de uma instituição a partir do uso das revistas electrónicas.

Está mais ou menos estabelecida a prática de medir a produção em investigação através do número de artigos científicos e teses publicadas. A análise das referências de trabalhos por outros é também um indicador desse dinamismo e impacto da investigação. Nesta proposta, porém, o facto mais interessante é focar a análise não no resultado da investigação, mas no processo que a antecede e a alimenta, ou seja, no consumo de informação pelos investigadores.

Os resultados apresentados circunscreveram-se ao estudo do Consorcio de Bibliotecas Universitarias de Cataluña (CBUC) e às revistas electrónicas.

Foi possível concluir que havia assimetrias significativas no uso das revistas electrónicas pelas diferentes instituições do consórcio e que a um maior consumo estava associado um nível de investigação superior.

Em suma, os estudos de uso dos recursos devem servir para gerir as colecções e medir a satisfação dos utilizadores, mas também constituem um indicador interessante para a avaliação da investigação.