ALÉM DAS NUVENS:
EXPANDINDO AS FRONTEIRAS DA CIÊNCIA DA
INFORMAÇÃO
Isa M. Freire, Lilian M. A. R. Alvares,
Renata M. A. Baracho, Mauricio B. Almeida,
Beatriz V. Cendon, Benildes C. M. S. Maculan
(Org.)
ALÉM DAS NUVENS:
EXPANDINDO AS FRONTEIRAS DA CIÊNCIA DA
INFORMAÇÃO
ISSN 2177-3688
BELO HORIZONTE
ECI/UFMG
2014
DIREITO AUTORAL E DE REPRODUÇÃO
Direitos de autor ©2014 para os artigos individuais dos autores. São permitidas cópias para fins
privados e acadêmicos, desde que citada a fonte e autoria. E republicação desse material requer
permissão dos detentores dos direitos autorais. Os editores deste volume são responsáveis pela
publicação e detentores dos direitos autorais.
E56a
2014
Encontro Nacional de Pesquisa em Ciência da Informação : além das nuvens,
expandindo as fronteiras da Ciência da Informação (15. : 2014 : Belo Horizonte,
MG).
Anais [recurso eletrônico] / XV Encontro Nacional de Pesquisa em Ciência da
Informação : além das nuvens, expandindo as fronteiras da Ciência da
Informação, 27-31 de outubro em Belo Horizonte, MG. / Organizadores: Isa M.
Freire, Lilian M. A. R. Álvares, Renata M. A. Baracho, Maurício B. Almeida. –
Belo Horizonte, ECI, UFMG, 2014.
ISSN 2177-3688
Evento realizado pela Associação Nacional de Pesquisa em Ciência da
Informação (ANCIB) e organizado pelo Programa de Pós-Graduação em Ciência
da Informação da Universidade Federal de Minas Gerais (PPGCI-ECI/UFMG).
1. Evento – Ciência da Informação. 2. Evento – Pesquisa em Ciência da
Informação. I. Título.
CDU: 02(063)(81)
COMISSÃO CIENTÍFICA
Profa. Dra. Renata Maria Abrantes Baracho – UFMG: Presidente
Profa. Dra. Lillian Alvares – UnB
Profa. Dra. Icléia Thiesen – Unirio
Profa. Dra. Brígida Maria Nogueira Cervantes – UEL
Profa. Dra. Giulia Crippa - USP
Profa. Dra. Emeide Nóbrega Duarte – UFPB
Prof. Dr. Clóvis Montenegro de Lima – IBICT
Profa. Dra. Aida Varela - UFBA
Profa Dra. Leilah Santiago Bufrem – UFPE
Profa. Dra. Plácida Amorim da Costa Santos – Unesp/Marília
Profa. Dra. Luisa M. G. de Mattos Rocha – IPJB/RJ
Prof. Dr. Carlos Xavier de Azevedo Netto – UFPB
Profa. Dra. Maria Cristina Soares Guimarães - IBICT/Fiocruz
Instituições Organizadoras
Órgãos de Fomento
GT 8
INFORMAÇÃO E TECNOLOGIA
SUMÁRIO
PREFÁCIO .......................................................................................................................... 6
GT 8 – INFORMAÇÃO E TECNOLOGIA .................................................................. 3089
Modalidade da apresentação: Comunicação oral ...................................................... 3089
TECNOLOGIA E SISTEMAS DE INFORMAÇÃO NA CIÊNCIA DA INFORMAÇÃO:
PERCURSO DA TEMÁTICA TECNOLÓGICA NO ARIST .................................... 3089
Ronaldo Ferreira Araujo
Marlene Oliveira
IMAGEM & TECNOLOGIA EM CATÁLOGOS DE MUSEUS DE ARTE:
INTERSEMIOSE EM QUESTÃO ............................................................................ 3105
Fábio Rogério Batista Lima
UTILIZANDO O GOOGLE ANALYTICS PARA MONITORAR A AUDIÊNCIA DE
BLOGS ..................................................................................................................... 3124
Célio Andrade Santana Júnior
Camila Oliveira Lima
BASES METODOLÓGICAS PARA ARQUITETURA DA INFORMAÇÃO
PERVASIVA ............................................................................................................ 3144
Henry Poncio Cruz de Oliveira
Silvana Aparecida Borsetti Gregorio Vidotti
Virginia Bentes Pinto
ENCONTRABILIDADE DA INFORMAÇÃO: ATRIBUTOS E RECOMENDAÇÕES
PARA AMBIENTES INFORMACIONAIS DIGITAIS ............................................. 3159
Fernando Luiz Vechiato
Silvana Aparecida Borsetti Gregorio Vidotti
CONVERSÃO DE REGISTROS EM XML PARA MARC 21: UM MODELO
BASEADO EM XSLT .............................................................................................. 3181
Fabrício Silva Assumpção
Plácida Leopoldina Ventura Amorim da Costa Santos
APLICAÇÃO DE DADOS INTERLIGADOS ABERTOS APOIADA POR
ONTOLOGIA ........................................................................................................... 3201
Linair Maria Campos
Maria Luiza de Almeida Campos
USUÁRIOS EM PRÁTICAS PROFISSIONAIS DE BIBLIOTECÁRIOS E
ANALISTAS DE TI .................................................................................................. 3221
Eliane Cristina de Freitas Rocha
Adriana Bogliolo Sirihal Duarte
WEB SEMÂNTICA: INTRODUÇÃO A RECUPERAÇÃO DE DADOS USANDO
SPARQL .................................................................................................................... 3242
José Eduardo Santarém Segundo
DESIGN SCIENCE: FILOSOFIA DA PESQUISA EM CIÊNCIA DA INFORMAÇÃO E
TECNOLOGIA ......................................................................................................... 3262
Marcello Peixoto Bax
LIVROS DIDÁTICOS DIGITAIS EM AMBIENTES COMPUTACIONAIS NAS
NUVENS .................................................................................................................. 3283
Charles Rodrigues
Angel Freddy Godoy Viera
ESTUDOS BRASILEIROS SOBRE INDEXAÇÃO AUTOMÁTICA NO AMBITO DA
CIÊNCIA DA INFORMAÇÃO (1973-2012) ............................................................. 3303
Remi Correia Lapa
Renato Fernandes Correa
DESENVOLVENDO UMA PUBLICAÇÃO CIENTÍFICA AMPLIADA NA
PLATAFORMA e-QUILT......................................................................................... 3321
Adriana Carla Silva de Oliveira
Guilherme Ataíde Dias
Mariana Cantisani
ACESSIBILIDADE A INFORMAÇÃO: ANÁLISE DO WEBSITE DA FUNDAÇÃO
APOIO À PESSOA COM DEFICIÊNCIA ................................................................ 3342
Célia Medeiros Dantas
Hellosman de Oliveira Silva
UMA FERRAMENTA PARA RECUPERAÇÃO DE TAGS DE BLOGS BASEADA
EM MICROFORMATOS.......................................................................................... 3359
Célio Andrade Santana Júnior
Nilton Heck Santos
POLÍTICAS DE FORMATOS DE ARQUIVOS PARA OBJETOS DE
APRENDIZAGEM: PRESERVAÇÃO DIGITAL NO SABER TECNOLOGIAS
EDUCACIONAIS E SOCIAIS .................................................................................. 3377
Vildeane da Rocha Borba
Sandra de Albuquerque Siebra
A INTERAÇÃO DO USUÁRIO COM CATÁLOGOS BIBLIOGRÁFICOS ON-LINE
DE BIBLIOTECAS UNIVERSITÁRIAS ................................................................. 3395
Flavia Maria Bastos
Silvana Aparecida Borsetti Gregorio Vidotti
REDES SOCIAIS EM BIBLIOTECAS: TRABALHOS APRESENTADOS NO XVII
SNBU........................................................................................................................ 3413
Maira Nani França
Angela Maria Grossi de Carvalho
METADADOS ARQUIVÍSTICOS: CONSIDERAÇÕES SOBRE CONCEITOS, TIPOS
E INSTRUMENTOS ................................................................................................. 3429
Rachel Cristina Vesu Alves
Plácida Leopoldina Ventura Amorim da Costa Santos
UM ROTEIRO PARA MODELAGEM CONCEITUAL DE SISTEMAS DE
INFORMAÇÃO BASEADA EM PRINCÍPIOS ONTOLÓGICOS ............................ 3451
Stefane de Melo Silva
Fernanda Farinelli
SISTEMA PARA GERENCIAMETO E RECUPERAÇÃO DE INFORMAÇÃO ..... 3471
Renata Maria Abrantes Baracho
Cátia Rodrigues Barbosa
Christiano Santos Benvindo Santo
BIG DATA: UMA INVESTIGAÇÃO COM USO DE DADOS ABERTOS SOBRE
ACIDENTES DE TRABALHO ................................................................................ 3491
Cláudio José Silva Ribeiro
ONTOLOGIA BASEADA NOS FRBR: PROPOSTA DE APLICAÇÃO EM
CATÁLOGOS ONLINE ........................................................................................... 3507
Zaira Regina Zafalon
Rogério Aparecido Sá Ramalho
AVALIAÇÃO DO ACESSO E VISUALIZAÇÃO DA INFORMAÇÃO EM
REPOSITÓRIOS INSTITUCIONAIS ....................................................................... 3526
Sandra de Albuquerque Siebra
Júccia Nathielle do Nascimento Oliveira
Modalidade da apresentação: Pôster ......................................................................... 3546
INFLUÊNCIA DA INOVATIVIDADE E FINANCIAMENTO NO RESULTADO EM
START-UPS ............................................................................................................. 3546
Anselmo Battisti
Carlos O. Quandt
TECNOLOGIAS PARA APLICAÇÃO DA WEB SEMÂNTICA NAS BIBLIOTECAS E
ARQUIVOS .............................................................................................................. 3553
Marcelo Tomita
Maria Elisabete Catarino
FERRAMENTA DE SOFTWARE LIVRE PARA CONSTRUÇÃO DE BASES DE
DADOS REFERENCIAIS DE ARTIGOS CIENTÍFICOS DIGITAIS ....................... 3560
Carlos O. Quandt
Adriana Carla Silva de Oliveira
Guilherme Ataíde Dias
MODELO PARA O DESCARTE SEGURO DA INFORMAÇÃO EM SUPORTE
DIGITAL .................................................................................................................. 3568
Silvio Lucas da Silva
Wagner Junqueira Araújo
ACESSIBILIDADE WEB NA PERSPECTIVA DOS SISTEMAS DE RECUPERAÇÃO
DA INFORMAÇÃO ................................................................................................. 3576
Lucinéia Souza Maia
ANÁLISE DA AÇÃO DE INFORMAÇÃO RELACIONAL NO LAViD DA UFPB 3587
Emy Pôrto Bezerra ................................................................................................. 3587
Ítalo José Bastos Guimarães
Zayr Cláudio Gomes da Silva
BIBLIOTECAS E WEB SEMÂNTICA: ANÁLISE SOBRE O ESTADO DESTE
RELACIONAMENTO .............................................................................................. 3594
Edgar Bisset Alvarez
ANÁLISE DA ARQUITETURA DA INFORMAÇÃO DO WEBSITE DO SIBI UNIRIO
.................................................................................................................................. 3603
Alanda do Valle Vitorino
Claudio Jose Silva Ribeiro
AVALIANDO A EDITORAÇÃO DE E-BOOKS EM AMBIENTES DE EDITORAS
UNIVERSITÁRIAS: UMA APLICAÇÃO DO OPEN MONOGRAPH PRESS ........ 3610
Adriana Carla Silva de Oliveira
Guilherme Ataíde Dias
BIG DATA APLICADO A SISTEMAS CIBER-FÍSICOS DA LOGÍSTICA:
PROPOSTA DE MODELO CONCEITUAL ............................................................. 3617
Moisés Lima Dutra
William Barbosa Vianna
VISUALIZAÇÃO DE CORRESPONDÊNCIAS SEMÂNTICAS NO UNIVERSO BIG
DATA ....................................................................................................................... 3625
Moises Lima Dutra
Marcio Matias
SÍNDROME DE GABRIELA” EM UMA COMUNIDADE RURAL DE JOÃO
PESSOA: RESISTÊNCIA E ACEITAÇÃO DAS TECNOLOGIAS DE INFORMAÇÃO
E COMUNICAÇÃO NO PROCESSO DE ALFABETIZAÇÃO E INCLUSÃO DIGITAL
.................................................................................................................................. 3633
Raíssa Carneiro de Brito
A WEB 2.0 COMO CANAL DE COMUNICAÇÃO ENTRE A BIBLIOTECA E OS
USUÁRIOS ............................................................................................................... 3640
Nivea Camara Rocha de Souza
Ana Paula de Oliveira Villalobos
PREFÁCIO
A Ciência da Informação é um campo científico de natureza interdisciplinar devotado
à busca por soluções para a efetiva comunicação da informação, bem como de seus registros,
[contexto social não é entre pessoas?] no contexto social, institucional ou individual de uso e
a partir de necessidades específicas. A evolução da Ciência da Informação está
inexoravelmente ligada à tecnologia da informação, uma vez que o imperativo tecnológico
tem gerado transformações que culminaram em uma sociedade pós-industrial, a sociedade da
informação. Nesse contexto, a Ciência da Informação desempenha importante papel na
evolução da sociedade da informação por suas fortes dimensões social e humana, as quais vão
além das fronteiras da tecnologia.
O tema do ENANCIB 2014 – Além das nuvens: expandindo as fronteiras da Ciência
da Informação – remete ao cenário atual caracterizado pelo contínuo desenvolvimento das
tecnologias da informação e comunicação, assim como pela evolução constante do ambiente
Web, os quais têm proporcionado novas formas de acessar, recuperar, armazenar e gerir a
informação. Telefonia móvel, nuvens, big data, linked data, dentre outras formas de interagir
com a informação têm exigido novas abordagens para os estudos em Ciência da Informação.
O ENANCIB 2014 oferece a oportunidade para refletir sobre essas mudanças, as quais
impactam na interação humana com a informação, bem como sobre suas implicações para o
futuro da Ciência da Informação.
Promovido pela Associação Nacional de Pesquisa em Ciência da Informação
(ANCIB), o ENANCIB, em sua décima quinta edição, foi organizado pelo Programa de PósGraduação em Ciência da Informação da Universidade Federal de Minas Gerais (PPGCIECI/UFMG) e realizado na Escola de Ciência da Informação da Universidade Federal de
Minas Gerais (ECI/UFMG), em Belo Horizonte, Minas Gerais, no período de 27 a 31 de
outubro de 2014. O evento foi financiado pela Coordenação de Aperfeiçoamento de Pessoal
de Nível Superior (CAPES), pelo Conselho Nacional de Desenvolvimento Científico e
Tecnológico (CNPq), pela Fundação de Amparo à Pesquisa do Estado de Minas Gerais
(FAPEMIG), pela UFMG e outras organizações apoiadoras.
Pesquisadores em Ciência da Informação foram convidados a submeter pesquisas
teóricas e empíricas, de acordo com a orientação temática dos onze Grupos de Pesquisa (GTs)
da ANCIB. A chamada de trabalhos foi aberta para duas categorias de submissões. A primeira
categoria é a comunicação oral (máximo de 20 páginas), que consiste de artigo escrito em
português, descrevendo trabalho original com demonstração efetiva de resultados. As
comunicações orais aprovadas foram convidadas para apresentação no evento. A segunda
categoria é o pôster (máximo de 7 páginas), que consiste de artigos curtos escritos em
português, descrevendo pesquisa em desenvolvimento. Os pôsters aceitos foram convidados
para exposição nas dependências em que ocorreu o evento.
O ENANCIB 2014 recebeu 493 trabalhos, dos quais XX foram aceitos para
publicação nos Anais e apresentação oral; XX foram aceitos para exibição em pôsters. Este
volume é então constituído por XX comunicações orais e XX pôsters, selecionados pelo
comitê de programa dos GTs, os quais são compostos por pareceristas especializados,
definidos no âmbito de cada GT.
Agradecemos à Comissão Organizadora e à ANCIB pelo seu comprometimento com o
sucesso do evento, aos autores por suas submissões e à Comissão Científica pelo intenso
trabalho. Agradecemos ainda aos alunos, funcionários e colaboradores que contribuíram para
a efetivação do evento.
Belo Horizonte, outubro de 2014
Isa M. Freire
Lilian M. A. R. Alvares
Renata M. A. Baracho
Mauricio B. Almeida
Beatriz V. Cendon
Benildes C. M. S. Maculan
3089
GT 8 – INFORMAÇÃO E TECNOLOGIA
Modalidade da apresentação: Comunicação oral
TECNOLOGIA E SISTEMAS DE INFORMAÇÃO NA CIÊNCIA DA
INFORMAÇÃO: PERCURSO DA TEMÁTICA TECNOLÓGICA NO ARIST
TECHNOLOGY AND INFORMATION SYSTEMS IN THE INFORMATION SCIENCE: THE
TECHNOLOGICAL THEME ON ARIST
Ronaldo Ferreira Araujo
Marlene Oliveira
Resumo: A revolução científica e tecnológica promoveu o surgimento de disciplinas
científicas emergentes como a ciência da informação, e o avanço tecnológico desempenha
um papel relevante no desenvolvimento dessa área. Ao longo das décadas percebemos
várias passagens que marcam esse avanço e demonstram sua contribuição para as
problemáticas da informação. Para contribuir com essa reflexão, a temática tecnológica
presente nas publicações do Annual Review of Information Science and Technology
(ARIST) é analisada. A partir dos descritores ‘informatics’, ‘infomation technology’ e
‘information systems’ foram identificados 87 artigos de revisão distribuídos entre os anos
de 1966 e 2008. Por meio da análise dos títulos e palavras-chave apresentamos os
descritores mais recorrentes por período e uma clusterização das temáticas. O número de
trabalho decresce ao longo do período analisado ao passo que o quantitativo de descritores
se amplia, indicando uma evolução terminológica. As tecnologias estão presentes em
questões interdisciplinares, aspectos educacionais e profissionais, e tem como núcleo os
sistemas de recuperação de informação.
Palavras-chave: Ciência da Informação; Tecnologia da Informação; Sistemas de
Informação; ARIST.
Abstract: The scientific and technological revolution promotes the arising of emerging
sciences and in-formation science and technological advancement plays a role in the
development of this area. Over the decades we noticed several passages that mark this
advance and demonstrate their contribution to the information problems. To contribute to
the discussion we analyze the issue in this technology publications on Annual Review of
Information Science and Technology (ARIST). From the descriptors' infomation
technology 'and' information systems'foram identi-fied 87 review articles. Through the
analysis of titles, keywords and summary present the most recurrent themes. The
technologies are present in interdisciplinary issues, educational and professional aspects,
the information retriavel systems are central.
Keywords: Information Science; Information Technology; Information Systems; ARIST.
1 INTRODUÇÃO
A revolução científica e tecnológica promoveu o surgimento de disciplinas
científicas emergentes como a Ciência da Informação (CI), e o avanço tecnológico
desempenha um papel relevante no desenvolvimento dessa área. Ao longo das décadas
percebemos várias passagens que marcam esse avanço e demonstram sua contribuição para
as problemáticas da informação.
3090
Para Santos et. al. (2013) as tecnologias de informação e comunicação estão cada
vez mais presentes no desenvolvimento da CI e na produção científica resultante de seus
estudos e pesquisas. Segundo os autores, ao avanço tecnológico que caracteriza este
momento considerado histórico se deve à essência da atuação do campo no tratamento da
informação, na gestão de recursos informacionais e na mediação da informação para a
apropriação do conhecimento.
A pesquisa na CI envolvendo a temática ‘tecnologia’ conduziu a criação do “GT8
Informação e Tecnologia”, um dos grupos da Associação Nacional de Pesquisa e PósGraduação em Ciência da Informação (ANCIB). O GT em questão iniciou-se em 2008 no
Encontro Nacional de Pesquisa e Pós-Graduação em Ciência da Informação (ENANCIB) e
dedica-se aos estudos e pesquisas teórico-práticos sobre e para o “desenvolvimento de
tecnologias de informação e comunicação que envolvam os processos de geração,
representação, armazenamento, recuperação, disseminação, uso, gestão, segurança e
preservação da informação em ambientes digitais” (GRUPOS DE TRABALHO, GT8,
2014).
De acordo com Vidotti, Oliveira e Lima (2013, p. 3) “o GT 8 da ANCIB tem
contribuído com a socialização de pesquisas de cunho tecnológico focadas no objeto de
investigação da Ciência da Informação”.
É sob tal afirmação que Santos e outros (2013) desenvolveram uma pesquisa que
procurou mapear a temática tecnológica e suas variações na comunidade científica da CI em
periódicos da área, indexados no Web of Science (WOS), classificados no WebQUALIS
2013 e disponíveis no Portal CAPES de Periódicos.
Nesse sentido propõe-se outra forma de reflexão sobre o componente tecnológico na
produção científica da CI, mas elege como fonte de pesquisa a base de conhecimento
acumulado no Annual Review of Information Science and Technology (ARIST) ao longo
dos seus 45 anos de publicação (1966 a 2011).
2 TECNOLOGIA, CIÊNCIA DA INFORMAÇÃO E O ARIST
Os Estados Unidos da América (EUA) pode ser considerado, segundo alguns
pesquisadores, como o berço da Ciência da Informação (PINHEIRO, 2002), tendo sido a
sociedade americana marcada por várias transformações (cientificas, tecnológicas e sociais)
que propiciaram o nascimento dessa nova ciência. Alguns acontecimentos marcantes
antecederam seu nascedouro, entre os quais a Segunda Grande Guerra; o desenvolvimento
da Ciência e Tecnologia (C&T) e da Pesquisa e Desenvolvimento (P&D); muito em função
da própria guerra e, entre as tecnologias, o Memex, ideia de Vannevar Bush de 1945.
3091
A expressão “Ciência da Informação” foi se consolidando aos poucos ao longo da
década de 1960. Sua denominação aconteceu em duas conferências realizadas no Georgia
Institute of Technology, em 1961 e 1962; depois, com a criação, em 1966, do Annual
Review of Information Science and Technology (ARIST); Em 1968, com a mudança do
nome do American Documentation Institute (ADI) para American Society for Information
Science (ASIS), como nova alteração em 2000 para American Society for Information
Science and Technology (ASIS&T). A nova denominação indica sua adesão à tecnologia da
informação; e recentemente, em 2013 muda-se para Association for Information Science
and Technology, mantendo a sigla, mas refletindo seu crescimento internacional. Em sua
página da internet, a ASIS&T disponibiliza acesso ao projeto Pioneers of Information
Science in North America Web <http://faculty.libsci.sc.edu/bob/ISP/contents.htm>, que tem
se constituído importante instrumento para a análise histórica da ciência da informação com
destaque para algumas personalidades (profissionais e pesquisadores) da área que
contribuíram com a formação, constituição e desenvolvimento do campo.
O projeto teve como fontes de informação documentos pessoais e institucionais,
além de entrevistas e algumas informações bibliográficas. Ao acessá-lo, tem-se inicialmente
um índice, formado com nomes de 100 pioneiros apresentados em ordem alfabética de
sobrenome. Ao selecionar um nome são fornecidas informações sobre: datas de nascimento
e morte (se for o caso), local de trabalho, as contribuições na área e a localização de
arquivos nos quais se encontram os documentos de onde as informações foram extraídas.
Moraes (2002) se dedicou ao estudo desse índice para elucidar indícios históricos da
Ciência da Informação nos EUA e observou dentre outras variáveis a categorização
temática dos 166 trabalhos listados como contribuição dos pioneiros. Ficou evidente no
trabalho que as temáticas com abordagens técnico-científicas e tecnológicas representam
50,60% dos trabalhos, com destaque para: ‘sistemas de recuperação da informação’,
‘tecnologia da informação’, ‘administração e processos técnicos de sistemas de informação’
e ‘redes e sistemas de informação’.
Também com abordagem histórica sobre o desenvolvimento da ciência da
informação Buckland e Liu (1995) fazem um artigo revisão no qual ao discorrerem sobre os
inúmeros trabalhos analisados sistematizam entre os tópicos a importância e o impacto das
técnicas e tecnologias para a CI na representação do documento, nas multimídias e
hipermídias, nas técnicas de busca e seleção de informação, e nas aplicações tecnológicas
(processamento e comunicação de dados).
3092
A partir do traçado do domínio epistemológico da Ciência da Informação no
exterior, e com abordagem historiográfica, Pinheiro (1997, 2005) apresenta o núcleo de
disciplinas da área bem como suas tendências por meio de um estudo da frequência dos
artigos de revisão do ARIST (1966-1995). A autora identificou 17 temas, dos quais 07
(sete) indicavam relação dialógica com a tecnologia, conforme QUADRO 1.
Fonte: PINHEIRO (2005, p.7)
É possível observar no estudo de Pinheiro (2005) que dentre as disciplinas com
maior ocorrência, lideram, figurando nos três primeiros lugares, com frequências 49, 36 e
35 respectivamente, temáticas tecnológicas, como ‘sistemas de informação’, ‘tecnologia da
informação’ e ‘sistemas de recuperação da informação’.
Essa presença marcante das temáticas tecnológicas na ciência da informação reforça
definições sobre o campo, como a de Foskett (1980) que evidencia sua configuração
interdisciplinar como área que “... surge de uma fertilização cruzada de ideias que incluem a
velha arte da biblioteconomia, [e] a nova área da computação”, e cuja sua forma moderna
relaciona-se diretamente com “todos os problemas da comunicação – a transferência da
informação”.
O mesmo pode ser observado em Le Coadic (2004) que considera que o próprio
desenvolvimento da ciência da informação é seguido, ou mesmo precedido, pelo
desenvolvimento excepcional das técnicas e tecnologias, ou ainda nas ideias de Saracevic
(1999), que ao discorrer sobre a interdisciplinaridade da Ciência da Informação com outros
3093
campos do conhecimento, destaca sua proximidade com a área de Ciência da Computação
sugerindo que há uma relação especial, entre ambas as áreas, a qual se apresenta de forma
significativa e desenvolvida.
O prestigiado ARIST encerrou seus 45 anos de publicações em 2011. Para Bawden
(2010) ele representa o principal fórum para artigos de revisão em ciência da informação. E
de acordo com Hjørland (2000) ele pode ser considerado a fonte de informação mais
importante sobre o estado da arte da CI sendo referência para sua comunidade científica
com discussões que apresentam de forma densa a configuração do campo proporcionando
uma visão analítica de seu desenvolvimento bem como suas tendências.
E sua pesquisa Ladeira (2010, p.22) considerou o conhecimento acumulado no
ARIST sobre ‘processamento de linguagem natural’ como referência para selecionar e
analisar as publicações nacionais. Como fonte, o ARIST serviu para a autora de respaldo e
garantia literária, e foi escolhido “dada a sua importância no panorama da ciência da
informação no Brasil e no mundo”. Ainda segundo a autora o ARIST procura apresentar ao
leitor uma revisão geral, analítica, acessível e com autoridade das tendências e
desenvolvimentos significativos nas áreas de interesse da ciência da informação. Os tópicos
abordados variam de ano para ano, refletindo o dinamismo da disciplina e a diversidade das
perspectivas teóricas da ciência e da tecnologia de informação. Apesar de alguns tópicos
clássicos continuarem em evidência (bibliometria, recuperação de informação), o ARIST
tem ampliado a sua abrangência com o intuito de conectar a ciência da informação a outras
comunidades acadêmicas e profissionais (LADEIRA, 2010, p.22).
Rabello (2013, p.154) considerou o ARIST como fonte de pesquisa para analisar
aspectos da literatura internacional da área de CI relacionados aos temas ‘necessidade,
busca, comportamento e uso da informação’, tendo como objetivo explorar a trajetória
histórica e as interpretações sobre os conceitos usuário e uso de informação. A escolha do
autor por esta fonte se deu por considera-la “uma importante referência internacional para a
área de informação, com revisões de literatura que trazem um panorama dos assuntos
debatidos em CI e em tecnologia”.
Tendo em vista a relevância das revisões do ARIST para a CI, bem como o papel da
tecnologia no percurso histórico e desenvolvimento do campo, a presente pesquisa pretende
analisar o percurso da temática tecnológica nessa publicação, procurando traçar um
panorama dos estudos sobre o componente tecnológico na área.
3094
3 PROCEDIMENTOS METODOLÓGICOS
O estudo faz parte da pesquisa de doutorado em andamento, que tem como objetivo
geral investigar ‘As bases tecnológicas da Biblioteconomia e Ciência da Informação no
Brasil’, analisando a tecnologia como assunto de pesquisa e conteúdo formativo. A presente
comunicação está direcionada para a representatividade da temática no ARIST (como
referência para selecionar e analisar a produção científica da comunidade acadêmica
nacional da área) por meio de uma análise documental com abordagem quantitativa e
descritiva.
A coleta de dados se deu por meio de pesquisa junto ao diretório de busca do
website do ARIST <http://www.asis.org/Publications/ARIST/search.php> em consulta
manual por meio de descritores para o componente tecnológico. Segundo Costa e Moura
(2013) termos, conceitos ou expressões utilizados como palavras-chave ou descritores são
signos que estão em relação com o real e visam representar, ainda que parcialmente, o
objeto que se estuda.
Considerando essa representação elegeu-se os descritores ‘informatics’ (11),
‘infomation technology’ (45) e ‘information systems’(44) em busca realizada em novembro
de 2013. Obteve-se um total de 100 trabalhos de revisão, os quais, após leitura inicial e
verificação de duplicidades foram reduzidos a 87, que por sua vez, forneceram um total de
245 descritores, que seguindo o mesmo princípio de eliminação por duplicidades, foram
reduzidos para 135.
A análise documental com abordagem no conteúdo segundo Fox (2005) pode ser
considerada como um processo comunicativo no qual um conjunto de operações cognitivas
de natureza analítico-sintética transforma, por meio do reconhecimento e da representação
do conteúdo, fornecendo especial apoio à pesquisa científica. Com base nessa premissa
procedeu-se a leitura dos artigos considerando para análise os títulos e as palavras-chave
das publicações. Os artigos de revisão são apresentados na sua distribuição por década de
publicação, frequência de termos e clusterização temática.
4 RESULTADOS
Os 87 trabalhos de revisão recuperados foram publicados no ARIST entre os anos
de 1966 e 2008. O GRÁFICO 1 mostra a quantidade de trabalhos por períodos, e com base
nele é possível perceber que a década de 1970 apresentou o maior número de trabalhos
(21), seguida da década de 1980 (19), tendo as décadas de 1960 e 1990 com o mesmo
quantitativo (17) e o os anos 2000 com menor quantidade (13).
3095
GRÁFICO 1. Distribuição de publicação sobre tecnologia (1966-2008)
Fonte: elaboração dos autores
Ao analisar o gráfico percebemos um aumento de trabalhos da década de 1960 para
a década de 1970, contudo percebe-se que nas décadas seguintes não há um crescimento da
temática tecnológica e sim uma redução.
O papel da tecnologia na formação e desenvolvimento do campo da CI é
fundamental à recuperação automática da informação científica e tecnológica, denominada
inicialmente, como o primeiro núcleo de pesquisa em Ciência da Informação (ALMEIDA,
BASTOS e BITTENCOURT, 2007; SARACEVIC, 1996). Considerou-se que a redução
gradativa no número de trabalhos pode ser decorrente da evolução terminológica, de
mudanças de enfoque, de especialização ou mesmo da fragmentação desse núcleo.
Uma constatação que corrobora com essa vertente é que nos anos de 2009 e 2010,
não obteve-se nenhum trabalho recuperado por meio dos descritores pesquisados, no
entanto, foram identificados trabalhos com temática tecnológica. Em 2009, por exemplo,
temos um artigo de revisão sobre os princípios da ‘Arquitetura de informação’ (JACOB e
LOEHRLEIN, 2009) evidenciando a repercussão do tema em outras áreas do
conhecimento; e outro que aborda a ‘Classificação semântica colaborativa e os sistemas de
notação’, adentrando sobre os recursos da web 2.0 e a etiquetagem social (social tagging)
como prática da folksonomia (HUNTER, 2009).
Na edição do ARIST de 2010, tem-se um artigo de revisão com ampla discussão em
torno dos 50 anos de pesquisa e desenvolvimento sobre Inteligência Artificial (EKBIA,
2010); e ainda um trabalho sobre as aplicações de tecnologias de informação e comunicação
no governo eletrônico (ROBERTSON e VATRAPU, 2010).
A análise quantitativa dos descritores também pode contribuir na constatação
anterior quanto à fragmentação desse núcleo. Os 87 trabalhos reuniram um total de 245
3096
descritores, mas devido a recorrência de termos, chegou-se a um total de 135 descritores
únicos. A distribuição do quantitativo dos descritores por período pode ser observado no
gráfico 2, que apresenta o quantitativo geral, com o total de descritores que os trabalhos
reuniram por período, e os descritores únicos, que geralmente possuem menor valor por
conter termos recorrentes.
GRÁFICO 2. Distribuição dos descritores (1966-2008)
Fonte: elaboração dos autores
A diferença entre a quantidade do total de descritores (TD) e os descritores únicos
(DU), equivale à dispersão (D), sendo TD – DU = D. Assim, quanto maior o valor de D
menor será a dispersão no período, uma vez que temos mais descritores com alta
recorrência. Sendo assim – conforme já observado – embora, tenha-se uma redução da
década de 1970 para a década de 1990 no quantitativo de artigos publicados, quando
observa-se a configuração dos descritores percebe-se o comportamento oposto. Isto é, de
crescimento, de evolução temática com surgimento de muitos novos termos. Com isso, a
década de 1970 apresenta a menor dispersão (D = 40), seguida das décadas de 1980 (D =
24) e 1990 (D = 12); e dos anos 2000 (D = 6) que apresentou a maior dispersão na temática
no período analisado.
Ao verificar os descritores recorrentes é possível perceber por período quais termos
constituem o núcleo dos trabalhos e ao mesmo tempo comprovar em alguns casos a
dispersão temática na qual os trabalhos se encontram. As tabelas 1 e 2 apresentam a
distribuição dos termos recorrentes nas décadas de 1960 e 1970, respectivamente.
A década de 1960 apresentou o menor índice de descritores com apenas uma
ocorrência, foram 07 (sete). Os artigos de revisão listados nessa década indicam as
primeiras questões abordadas pelos teóricos da CI com foco em temáticas tecnológicas,
sendo por exemplo, a década que reúne maior reflexão sobre o componente tecnológico e os
aspectos profissionais (Information professional) da ciência da informação e tecnologia
3097
(TAYLOR, 1966; HARVEY, 1967; ATHERTON e GREER, 1968; SHERA e
MCFARLAND, 1969).
TABELA 1 - Descritores da década de 1960
TABELA 2 – Descritores da década de
1970
Fonte: elaboração dos autores
Fonte: elaboração dos autores
Com destaque para o descritor ‘tecnologia da informação’ (Information Technology
- 12), a década também apresenta os primeiros trabalhos sobre as atividades de
armazenamento e recuperação da informação (Information Storage and Retrieval - 4), bem
como as aplicações tecnológicas dos sistemas nessas atividades.
A preocupação com o crescimento exponencial da informação e com seus estoques
coloca a tecnologia como fundamento da relação entre CI e Ciência da Computação. Nessa
relação reside a aplicação dos computadores e da computação no armazenamento e
recuperação da informação, assim como nos produtos, serviços e redes associados
(SARACEVIC, 1996).
A recuperação da informação tornou-se a grande questão de pesquisa da CI. Para
qual se tem apresentado soluções bem sucedidas e para isso está em processo de
desenvolvimento até os dias atuais. De acordo com Saracevic (1996, p.45) o trabalho
determinado pela necessidade de recuperar informações suscitou questões e promoveu
pesquisas exploratórias de fenômenos, processos e variáveis, bem como das causas, efeitos,
comportamentos e manifestações relacionados.
As décadas de 1960 e 1970 podem ser consideradas o período de concepção e
desenvolvimento dos sistemas de informação, os descritores ‘design’ e ‘evaluation’
confirmam isso. Há um crescimento de trabalhos sobre o armazenamento e recuperação da
informação, bem como os sistemas de armazenamento e recuperação da década de 1960
3098
para a década de 1970, firmando essa última com o maior número de artigos de revisão
sobre o assunto.
Para estudiosos da recuperação como Lesk (1996) a década de 1960 é vista como o
período da adolescência para o desenvolvimento da temática. Segundo o autor é nela que se
tem a criação e a experimentação dos primeiros sistemas de pesquisa e sistemas comerciais,
bem como o desenvolvimento de tecnologias para avaliação de sistemas de recuperação. O
período é considerado “o boom da Recuperação da Informação” (ORTEGA, 2002, p.81).
Segundo Lesk (1996) é na década de 1970 que temos a fase adulta nos estudos de
recuperação da informação e os sistemas passam a ser utilizados em diversos campos
científicos, além do desenvolvimento e distribuição dos sistemas comerciais em larga
escala. Aprimoram-se as formas de pesquisa, a recuperação torna-se mais prática e os
sistemas desenvolvidos possibilitam ofertas de serviços de informação. Embora “a maioria
desses sistemas operasse sem resumos e índices”, vale lembrar que essa década viu “o
início dos sistemas de recuperação em texto integral” (ORTEGA, 2002, p.84).
A grande diferença entre os descritores da década de 60 e 70 é que muitos da
primeira década desaparecem na segunda. E os novos descritores presentes na década de
1970 demonstram diversificação nas atividades de CI que se ligam á tecnologia. As tabelas
3 e 4 dão continuidade à discussão e apresentam a distribuição dos descritores recorrentes
das décadas de 1980 e 1990, respectivamente.
TABELA 3 - Descritores da década de 1980
TABELA 4 - Descritores da década de 1990
Fonte: elaboração dos autores
Fonte: elaboração dos autores
Na década de 1980 há uma pequena redução nas pesquisas sobre armazenamento e
recuperação da informação e nos sistemas de recuperação, mas há aumento dos trabalhos
sobre ‘serviços de informação’. A dispersão temática dobra de 13 descritores com apenas
uma ocorrência na década anterior para 26 descritores. Para Lesk (1996) essa década marca
a fase de maturidade nos estudos de recuperação da informação, com o crescimento dos
3099
processadores de texto e barateamento do espaço em disco significava ter mais informação
disponível na forma legível por computador.
O aumento de recorrência aos serviços de informação pode estar pautado no
crescimento do interesse de novas métodos de recuperação da informação (como pesquisa
sobre desambiguidade), na difusão do CD-ROM, que atacava o paradigma de publicação
tradicional, e no fato que o uso da recuperação da informação online expandiu-se, tanto na
disponibilização do texto integral – e não somente resumos e índices – quanto, na
propagação desse serviço por não especialistas com a chegada dos Catálogos Online de
Acesso Público – OPACs (ORTEGA, 2002).
O armazenamento e recuperação da informação e os sistemas de recuperação
praticamente desapareceram na década de 1990, sendo ainda a década com maior dispersão
da temática com 34 descritores com apenas uma ocorrência. Para Ortega (2002, p.84) “com
crescimento e massificação dos sistemas comerciais de bases de dados, houve um recuo na
investigação no campo da Recuperação da Informação” e uma grande dispersão na
performance dos sistemas de recuperação. Não é por menos que Lesk (1996) considera os
anos 90 como a “crise de meia idade” nos estudos de recuperação da informação.
A Tabela 5 apresenta a distribuição dos termos recorrentes na década de 2000.
Observa-se, por um lado, uma redução significativa dos descritores únicos, e por outro, um
aumento considerável de descritores únicos, revelando assim uma grande dispersão.
TABELA 5 - Descritores da década de 2000
Fonte: elaboração dos autores
De acordo com Ortega (2002, p. 87) os anos 2000 marcam “a utilização universal da
internet nos meios acadêmicos e empresariais nos Estados Unidos”. A quantidade
disponível, a facilidade de acesso e uso da informação online é berço de mais um
movimento de evolução terminológica (25 descritores com 1 ocorrência) no campo da CI e
reforça ainda relações com outras disciplinas, como é o caso da Informática Médica.
Ao analisar os pontos de convergência e divergência entre os campos da ciência da
informação e sistemas de informação a partir de descritores de artigos de periódicos de
3100
ambas as disciplinas Monarch (2000) apontou a informática médica como disciplina híbrida
de convergência entre esses campos.
Para a clusterização analisou-se os títulos e as palavras-chave e utilizamos o
WordStat1 para calcular os termos mais incidentes com frequência da ocorrência e quais
termos estão mais relacionados. Foram considerados para representação os termos com
incidência maior ou igual a 2.
A importância de se conhecer os termos de maior ocorrência, que representam o
campo nocional em torno das disciplinas analisadas, está no fato de ser possível por meio
delas ter condições de saber sobre quais os elementos mais discutidos.
A partir da FIGURA 1, com apresentação do dendograma, podemos perceber
a relação entre esses termos. Essa representação permite avaliar qual o número de clusters
(temáticos) e sua aproximação e distância por meio de agrupamentos.
FIGURA 1. Dendograma “clusters” dos termos mais recorrentes
O maior agrupamento (na cor azul) se dá em torno dos termos ‘informação’,
‘sistemas’ e ‘tecnologia’, que por sua vez, aparecem com menor grau de distância o que
1
Software de análise de conteúdo e mineração de textos. Versão gratuita de teste disponível em:
<http://provalisresearch.com/products/content-analysis-software/>.
3101
implica na indicação ‘sistemas de informação’ e ‘tecnologia da informação’ como temáticas
centrais. O resultado é similar ao encontrado por Moraes (2002) quando analisou 166
trabalhos listados como contribuição dos pioneiros da CI nos Estados Unidos, com destaque
também para os ‘sistemas de informação’.
Estão presentes nesse mesmo agrupamento o ‘design’ e ‘evolução’ dos sistemas de
recuperação da informação, os ‘serviços de informação’ e a ‘gestão da informação’, tendo
ainda trabalhos sobre aplicações dos sistemas de informação na e para as ‘Ciências
Humanas’.
Os demais agrupamentos vão indicar alguns focos das pesquisas, que vão dos
aspectos profissionais (na cor marrom) aos educacionais (na cor vermelha), passando por
questões interdisciplinares com outros campos, como o do Direito, com trabalhos sobre
aspectos legais da informática (na cor preta), ou da Saúde (verde escuro) reunindo trabalhos
sobre processamento de dados e bases de dados para negócio. E trabalhos com abordagens
do componente tecnológico no contexto da Informática Social (na cor verde claro).
5 CONCLUSÕES
A reflexão sobre a evolução dos aparatos tecnológicos e suas implicações para a
Ciência da Informação no campo científico nos artigos de revisão do ARIST leva à
percepção de um vasto conteúdo que perpassa a evolução dos suportes e dos dispositivos de
armazenamento; os processos que envolvem a automação, informatização e digitalização;
as bases e bancos de dados e sistemas de informações; os processos de tratamento e
recuperação da informação; aos produtos e serviços de informação no contexto digital
(bibliotecas eletrônicas e digitais, catálogos automatizados e online; repositórios digitais;
bibliotecas 2.0); dentre outros.
Essa proliferação que a temática tecnológica tem no campo da CI é expressa em dois
movimentos percebidos na análise dos artigos de revisão: (a) há uma redução no
quantitativo de trabalhos ao longo das décadas; e por outro lado, (b) há um aumento
considerável no quantitativo de descritores únicos.
Inclusive os descritores escolhidos “Informatics”, “Information Technology” e
“Information Systems” já não foram suficientes para representar os trabalhos que versam
sobre tecnologia e foram publicados nas edições de 2009 e 2010 do ARIST. O que nos
deixa alguns questionamentos sobre qual seria o limite para uma fragmentação temática ou
mesmo até que ponto uma contínua dispersão pode indicar baixa consolidação temática e
terminológica, sobretudo no contexto dinâmico da tecnologia.
3102
Ao alertar sobre os perigos do determinismo tecnológico na ciência Morin (2002)
chamou de “tecnologização da epistemologia” a crítica feita ao predomínio técnico na
formação do cidadão.
Ideias do autor sustentam concepções sobre “mecanização do conhecimento” ou
mesmo “tecnologização do currículo escolar” (LIMA JUNIOR, 2003) que situa o processo
histórico do uso da tecnologia na educação à logica desenvolvimentista, do modelo
econômico em curso no qual a tecnologia educacional, por exemplo, é encarada como parte
do modelo tecnicista da educação (GIANOLLA, 2006) cujas questões centrais não estão os
rumos a serem seguidos, “mas tão somente, os métodos e técnicas a serem utilizados”
(MORAES, 1996, p. 47).
Os trabalhos encontrados voltados para a reflexão sobre as aplicações dos sistemas
de recuperação da informação na e para as Ciências Humanas (RABEN e WIDMANN,
1972; RABEN e BURTON, 1981; TIBBO, 1991) bem como os desenvolvidos no âmbito da
Informática Social (BISHOP e STARR, 1996; SAWYER, S.; ESCHENFELDER, 2002),
podem contribuir com a não reprodução desse modelo tecnicista de perceber a tecnologia
no campo da CI.
REFERÊNCIAS
ATHERTON, P.; GREER, R.. Professional aspects of information science and technology.
Annual Review of Information Science and Technology – ARIST, v.3, p. 329-355, 1968.
Bawden, David. Alas poor ARIST: reviewing the information sciences. Journal of
Documentation, v. 66, n. 5, p.625-626, 2010.
BISHOP, A. P.; STARR, S. L. Social informatics of digital library use and infrastructure.
Annual Review of Information Science and Technology – ARIST, v. 31, p.301-401,
1996.
CAPURRO, R. Epistemologia e ciência da informação. In: ENCONTRO NACIONAL DE
PESQUISA EM CIÊNCIA DA INFORMAÇÃO - ENANCIB, 5., 2003. Belo Horizonte.
Anais... Belo Horizonte: UFMG, 2003.
COSTA, M. U. P.; Moura, Maria Aparecida . A Representação da informação em contextos
de comunicação científica: a elaboração de resumos e palavras-chave pelo pesquisadorautor. Informação & Informação (UEL. Online), v. 18, p. 45-67, 2013
GIANOLLA, R. Informática na educação: representações sociais do cotidiano. 3ed. São
Paulo: Cortez, 2006
EKBIA, H. Fifty Years of Research in Artificial Intelligence. Annual Review of
Information Science and Technology – ARIST, v. 44, 2010.
HARVEY, J. F. Professional aspects of information science and technology. Annual
Review of Information Science and Technology – ARIST, v. 2, p. 419-444, 1967.
3103
HJORLAND, B.. Letter to the editor: relevance research, the missing perspective(s).
Journal of the American Society for Information Science, v. 51, n. 7, p. -211, maio
2000.
HUNTER, J. Collaborative Semantic Tagging and Annotation Systems. Annual Review of
Information Science and Technology – ARIST, v. 43, p. 187-239, 2009.
JACOB, E.; LOEHRLEIN, A.. Information Architecture. Annual Review of Information
Science and Technology – ARIST, v. 43, p. 147-186, 2009.
LESK, M. The seven ages of information retrieval. Ottawa: IFLA, 1996. Disponível em:
<http://www.ftsm.ukm.my/ss/TP6082/seven%20ages%20ir.pdf>. Acesso em: 3 mar. 2013.
LADEIRA, Ana Paula. Processamento de linguagem natural: caracterização da produção
científica dos pesquisadores brasileiros. Tese (Doutorado). Ciência da Informação.
Universidade Federal de Minas Gerais. Escola de Ciência da Infomação. 2010. 259f.
LIMA JR. A. S. de.. Tecnologização do Currículo Escolar: Um possível significado
Salvador, Universidade Federal da Bahia, 2003.
MONARCH, I.A. Information science and information systems: converging or diverging?
In: 28th Annual Conference, Canadian Association for Information Science, CAIS: 2000,
Dimensions of a Global Information Science. Proceedings… 2000. Disponível em:
<http://www.cais-acsi.ca/proceedings/2000/monarch_2000.pdf> Acesso em 01 jun. 2013.
MORAES, R. A. A.. A análise histórica da política de informática na educação brasileira e
as principais experiências conduzidas na rede pública de ensino de 1º e 2º graus até 1995.
(Tese de Doutorado). Campinas, FE/UNICAMP, 1996.
MORAES, A. F. . Os pioneiros da Ciência da Informação nos EUA.. Informação &
Sociedade Estudos, João Pessoa, PB, v. 12, n. 2, p. 101-124, 2002.
MORIN, E.. Ciência com consciência. Rio de Janeiro, Bertrand Brasil, 2002.
OLIVEIRA, M. (Org.). Ciência da Informação e Biblioteconomia: novos conteúdos e
espaços de atuação. Belo Horizonte: Editora UFMG, 2005.
ORTEGA, Cristina Dotta. Informática documentária: estado da arte. Dissertação
(Mestrado Ciências da Comunicação) - Universidade de São Paulo – Escola de
Comunicação e Artes, São Paulo, 2002. 259f.
PINHEIRO, Lena Vania Ribeiro. Gênese da Ciência da Informação ou sinais anunciadores
da nova área. In: AQUINO, Miriam de Albuquerque de (Org.). O campo de Ciência de
Informação: gênese, conexões e especificidades. João Pessoa: Editora Universitária, 2002.
p. 61-86
PINHEIRO, Lena Vania Ribeiro. Evolução e tendências da ciência da informação, no
exterior e no brasil: quadro comparativo a partir de pesquisas históricas e empíricas. In:
ENCONTRO NACIONAL DE PESQUISA EM CIÊNCIA DA INFORMAÇÃO
(ENANCIB), 6., 2005, 3, Florianópolis, SC. Anais... Florianópolis, SC, 2005.
PINHEIRO, Lena Vania Ribeiro. Ciência da Informação: desdobramentos disciplinares,
interdisciplinaridade e transdisciplinaridade. In: GONZÁLEZ DE GÓMEZ, Maria Nélida;
ORRICO, Evelyn Goyannes Dill. (Org.). Políticas de memória e informação: reflexos na
3104
organização do conhecimento. Natal: Editora Universitária da UFRN/EDUFRN, 2006, v. ,
p. 111-141.
RABEN, J.; WIDMANN, R. L. Information systems applications in the humanities.
Annual Review of Information Science and Technology – ARIST, v. 7, p. 439-469,
1972.
RABEN, J.; BURTON, S. K. Information systems and services in the arts and humanities.
Annual Review of Information Science and Technology – ARIST, v. 16, p. 247-266,
1981.
ROBERTSON, S. P.; VATRAPU, R.. Digital government. Annual Review of Information
Science and Technology – ARIST, v.44, p. 317-364, 2010.
SANTOS, P. L. V. A. et al. Mapeamento do termo tecnologia em periódicos da ci no
escopo do GT- Informação e Tecnologia. In: XIV Encontro Nacional de Pesquisa em
Ciência da Informação - ENANCIB 2013, 2013, Florianópolis. Anais ... Florianópolis:
Universidade Federal de Santa Catarina - UFSC; ANCIB, 2013. v. 14. p. 1-19
SARACEVIC, Tefko. Ciência da informação: origem, evolução e relações. Perspec. Ci.
Inf., Belo Horizonte, v. 1, n. 1, p. 41-62, jan./jun. 1996. Disponível em:
<http://portaldeperiodicos.eci.ufmg.br/index.php/pci/article/view/235/22>. Acesso em: 03
fev. 2012.
SAWYER, S.; ESCHENFELDER, K. R. Social informatics: Perspectives, examples, and
trends social informatics. Annual Review of Information Science and Technology –
ARIST, v.36, p. 427-465, 2002.
SHERA, J. H.; MCFARLAND, A. Professional aspects of information science and
technology. Annual Review of Information Science and Technology – ARIST, v. 4, p.
439-471, 1969.
SILVA, Armando Malheiro da. Ciência da Informação e Sistemas de Informação:
(re)exame de uma relação disciplinar. Prisma.com, n. 11, p. 2-30, jul., 2010. Disponível
em:
<http://prisma.cetac.up.pt/2_Ciencia_da_Informacao_Sistemas_de_Informacao_reexame_d
e_uma_relacao_disciplinar_Armando_Malheiro.pdf>. Acesso em 14 mai. 2012.
TAYLOR, R. S. Professional aspects of information science and technology. Annual
Review of Information Science and Technology – ARIST, v. 1, p. 15-40, 1966.
TIBBO, H. R. Information systems, services, and technology for the humanities
humanities. Annual Review of Information Science and Technology – ARIST, v.
26, p. 287-346, 1991.
VIDOTTI, Silvana Aparecida Borsetti Gregorio ; OLIVEIRA, H. P. C. ; LIMA, I. F. Ensino
de Tecnologias de Informação e Comunicação: um diagnóstico nos cursos de graduação em
Biblioteconomia, Arquivologia e Museologia do Brasil. In: XIV Encontro Nacional de
Pesquisa em Ciência da Informação - ENANCIB 2013, 2013, Florianópolis. Anais...
Florianópolis: Universidade Federal de Santa Catarina - UFSC; ANCIB, 2013. v. 14. p. 119.
3105
IMAGEM & TECNOLOGIA EM CATÁLOGOS DE MUSEUS DE ARTE:
INTERSEMIOSE EM QUESTÃO
IMAGE & TECHNOLOGY IN ART MUSEUM CATALOGS: INTERSEMIOSIS IN
QUESTION
Fábio Rogério Batista Lima
Resumo: A digitalização e a transposição das obras de arte para catálogos impressos e
digitais nos webmuseus criam simulacros das obras originais, e sua forma material e
orgânica transforma-se em linguagem computacional de bits e bytes. Identificam-se as
características que indicam as transformações da estrutura de apresentação da obra de arte
na sua passagem para ambientes virtuais quando digitalizadas, uma vez que a mudança de
um sistema semiótico para outro ocasiona rupturas e mutações na qualidade estética da obra
de arte produzida sobre um suporte e transferida para outro. Com uso do método
bibliográfico descritivo, verificaram-se as características dos catálogos de obras de arte,
tanto os impressos quanto os da Web, demonstrando suas semelhanças e diferenças na
apresentação das informações das obras. Os resultados da análise revelaram que a
digitalização das obras de arte e sua transposição para ambientes digitais na construção de
catálogos on-line e impressos acarretam perdas informacionais referentes aos elementos
essenciais da composição plástica do recurso. A transformação mais evidente é a diferença
de cores ocorrida tanto nos catálogos impressos e a obra (levando em consideração os tipos
de materiais utilizados) quanto nos catálogos impressos e na Web, pois a cor luz é diferente
da cor pigmento. Ao tratar das obras tridimensionais, como as obras escultóricas, a
digitalização causa a perda de uma dimensão, o que deixa a imagem achatada e
bidimensional. Os catálogos digitais on-line perdem em intensidade, mas ganham em
extensividade, pois aproximam as pessoas, ao recontextualizarem as obras e servirem como
guia e tradutor do acervo, levando o indivíduo a percorrer a exposição com um conjunto de
informações que atuam como apoio didático-pedagógico no processo de aquisição de
repertório e ampliação da base de conhecimento.
Palavras-chave: Imagem. Informação e Tecnologia. Intersemioses Digitais. Catálogos de
museu de arte.
Abstract: The Digitization and transposition of artwork for print and digital catalogs in
webmuseums create simulacra of the original works, and its material and organic form
becomes computational language of bits and bytes. The characteristics that indicate the
transformation in the structure of the presentation of the artwork in its passage to virtual
environments when digitization is performed are identified. It is justified since the change
from one semiotic system to another causes disruptions and mutations in the aesthetic
quality of the artwork produced on a support and transferred to another. With a descriptive
bibliographic method, the characteristics of artwork in catalogs is verified, both print and on
the web, disclosing their similarities and differences in the presentation of artwork
information. The results of the analysis revealed that the digitization of artwork and its
transposition into digital environments in the construction of on-line and printed catalogs
lead to informational losses related to the essential elements of artistic composition of the
resource. The most obvious transformation is the color difference occurred both in printed
catalogs and the artwork (taking into consideration the types of materials used) both in
printed catalogs and on the web, as the light color is different from the color pigment. When
dealing with three-dimensional artwork such as sculptural works, digitization causes the
loss of a dimension, which turns the artwork into a flat, two-dimensional image. Digital
online catalogs lose in intensity, but gain in extensiveness, as bring people closer; they
3106
recontextualize the artworks and serve as translator and guide to the collection, leading the
individual to go through the exhibition with a collection of information that serve as
didactic support to the acquisition process of repertoire and broadening of knowledge base.
Keywords: Image. Information and Technology. Digital intersemioses. Art Museum
Catalogs.
1 INTRODUÇÃO
Refletir sobre a atualidade é também enfatizar questões importantes referentes à
arte, à ciência e à tecnologia, o que nos remete a questões como globalização, crescimento
informacional, velocidade e virtualidade, situações relacionadas à evolução do homem e sua
Teknè. O homem, enquanto agente dessa evolução, tem como uma de suas atividades a arte,
uma manifestação de ordem estética resultante da percepção, das emoções e das ideias, a
partir da utilização de uma grande variedade de meios e materiais, como a pintura, a escrita,
a música, a dança, a fotografia, a escultura, entre outros.
A arte influenciou a ciência e foi por ela também muito influenciada. Entretanto, na
contemporaneidade, é a ciência, juntamente com a tecnologia, que vem imprimindo
significativamente suas marcas sobre a arte. Os “[...] materiais e métodos podem ser
diferentes, mas as estimulações cruzadas são frequentes e férteis para a arte, a ciência e a
tecnologia.” (CZEGLEDY, 2003, p. 126).
Desde o surgimento das principais sociedades primitivas, passando pelas complexas
cidades pós-industriais até os dias atuais, o homem descobriu como fazer o fogo, cultivou a
terra, domesticou os animais, construiu cidades, dominou os recursos energéticos naturais,
implementou indústrias, conquistou o espaço cósmico, viajou pelos confins do espaçotempo, e “[...] durante esse trajeto a tecnologia ganhou significações e representações
diversas em um movimento de vai e vem com a vida social” (LEMOS, 2008, p. 25).
De acordo com Pinho (2008, p. 8), tudo o que é humano é ao mesmo tempo
psíquico, técnico, histórico etc. e se integra com o que o autor chama de “equipamentos
coletivos de subjetivação”, como, por exemplo, as novas tecnologias informáticas e a
Internet. Com esses objetos tecnológicos, a história da comunicação entre os homens, bem
como as construções de imagens e suas particularidades históricas e culturais, mudaram e
continuam em constante transformação.
Nesse contexto, a proposta deste estudo foi a de identificar as características que
indicam as transformações da estrutura de apresentação da obra de arte na sua transposição
para ambientes virtuais quando digitalizadas, uma vez que a mudança de um sistema
semiótico para outro ocasiona rupturas e mutações na qualidade estética da obra de arte –
cor, dimensão, textura etc. O objetivo foi demonstrar, com o uso do método bibliográfico
3107
descritivo, as semelhanças e as diferenças na apresentação das informações das obras e
verificar as características dos catálogos.
2 IMAGEM: UMA SÍNTESE HISTÓRICA
Desde o princípio, o ser humano tem a necessidade de se comunicar com os seus
semelhantes, e os meios utilizados para esse processo têm variado ao longo dos séculos. A
linguagem, definida como
produção e entendimento da fala, se desenvolveu com a
evolução da espécie humana. A fala humana poderia ser comparada à comunicação entre
outros animais, porém a linguagem humana tem elementos que a distinguem da linguagem
dos animais, na medida em que possui criatividade e interpretação.
No início, quando os primeiros homens, Homo Herectus (que viveram entre 1,8
milhões de anos e 300.000 anos atrás), habitavam a Terra, o centro de sua fala não era
muito desenvolvido e a comunicação se dava por meio de grunhidos, rosnadas e gestos. Na
época dos Neandertais (há cerca de 300.000 anos até aproximadamente 29.000 anos),
acredita-se que o hemisfério esquerdo do cérebro desenvolveu-se um pouco mais. Com o
Homo Sapiens (há 200.000 anos), o cérebro se desenvolveu e propiciou o desenvolvimento
da fala. Foi um período caracterizado pela linguagem. No processo de comunicação, o
papel da linguagem é primordial, pois “[...] ela garante o intercâmbio da significação,
mediando as relações entre pessoas, flexibilizando o pensamento e ampliando a capacidade
conceitual e proposicional de cada indivíduo” (BARRETO, 2008, p. 114).
Acredita-se que esse desenvolvimento se deu pelo convívio simultâneo das duas
culturas diferentes, Neandertais e Homo Sapiens, e pela necessidade da comunicação entre
eles. Assim, outras formas de linguagens surgiram como, por exemplo, as imagens, que
eram
[...] sempre modeladas por estruturas profundas, ligadas ao exercício de
uma linguagem, assim como a vinculação a uma organização simbólica (a
uma cultura, a uma sociedade); mas a imagem também é um meio de
comunicação e de representação do mundo, que tem seu lugar em todas as
sociedades humanas (AUMONT, 1993, p. 131).
Tais imagens, encontradas em sua maioria em paredes de cavernas, como as de
Altamira e Lascaux, conhecidas como pinturas rupestres, eram feitas com o uso de sangue
de animais, argila e seiva de plantas. Acredita-se que as sociedades primitivas se
expressavam principalmente por meio dessas pinturas.
Os meios técnicos que suportam a informação têm uma relação com o espaço e com
o tempo da vida social. Segundo (BARRETO, 1999),
Os homens, ao produzirem as teias de significações para si mesmos,
empregam meios técnicos/suportes materiais para transmitir as formas
3108
simbólicas, fundamentando, assim, sua vida social nos aspectos da
produção, armazenamento e circulação da informação e do conteúdo
simbólico.
A grande variedade de pinturas rupestres, feitas por povos diferentes e em locais
diferentes, mantém algumas características comuns na representação do cotidiano, de
ferramentas, de armas, ou figuras que representavam situações específicas, como a caça.
Embora muitas vezes as cenas de caça representadas em cavernas não descrevessem uma
situação vivida pelo grupo, elas possuíam um caráter mágico, preparando o grupo para essa
tarefa que lhes garantiria a sobrevivência.
Com o passar do tempo, a produção de imagens começou a ser feita por meio da
utilização de variados tipos de materiais e suportes, mas ainda com o mesmo intuito:
comunicar, representar e informar. Na modernidade, os modos de produção de imagem
romperam definitivamente com os modos anteriores.
O desenvolvimento de aparatos técnicos e químicos para a produção de imagem
possibilitou a captura de imagens do mundo real de modo muito mais rápido. Exemplo
disso é a fotografia, definida por Aumont (1993, p. 164) como “[...] ação da luz sobre certas
substâncias que assim levadas a reagir quimicamente, são chamadas fotossensíveis. Uma
superfície fotossensível exposta à luz será transformada provisória ou permanentemente
[...]”.
A fotografia impulsionou o crescimento do uso da imagem para variados fins.
Diferentemente da pintura, a fotografia passou a servir como documento comprobatório e
indicial. A maneira de produzir imagens por máquinas fotográficas evoluiu com o passar do
tempo e hoje temos à disposição, de modo muito acessível, máquinas digitais para a captura
e produção instantânea de imagens.
Tal perspectiva nos leva a concordar com as reflexões do cientista norte-americano
Negroponte (1995), quando diz que vivemos em um meio onde a tendência de nossas
atividades de trabalho, nossos entretenimentos, nossas histórias e relações com outras
pessoas tornam-se cada vez mais dependentes das tecnologias digitais. As imagens
produzidas atualmente, na maioria das vezes, ilustram essa reflexão, pois percebemos que
elas estão sendo produzidas cada vez mais com uso de equipamentos eletrônicos, seja por
câmeras digitais, por aparelhos celulares, por tablets ou mesmo por computadores portáteis
com câmeras embutidas.
O QUADRO 1 ilustra a evolução da imagem ao longo do tempo e o efeito que ela
exerce sobre a sociedade e a cultura a que pertence.
3109
QUADRO 1: Natureza da imagem, papel do receptor
PRÉ
Figurar o visível e o invisível
Figurar por imitação
Imagem espelho
PRÉ
Contemplação
Nostalgia
Aura
NATUREZA DA IMAGEM
FOTOGRÁFICA
Registrar o visível
Capturar por conexão
Imagem documento
PAPEL DO RECEPTOR
FOTOGRÁFICA
Observação
Reconhecimento
Identificação
PÓS
Visualizar o modelável
Simular por variações de
parâmetros
Imagem matriz
PÓS
Interação
Imersão
Navegação
Fonte: Adaptação de Santaella (2001, p. 172-178)
As imagens hoje estão em todos os lugares: em placas de trânsito, outdoors, vitrines,
bancas de jornal, logomarcas de empresas ou em livros, revistas e massivamente na rede
Internet. De acordo com Aumont (1993, p. 314),
As imagens, isso é inegável, há mais de 100 anos multiplicam-se
quantitativamente em proporções impressionantes e sempre crescentes.
Além disso, percebemos que essas imagens invadem nossa vida cotidiana,
que seu fluxo não pode ser contido.
Isso se dá devido às facilidades que temos na conexão entre computador e scanners,
com os instrumentos de captura e restituição da imagem, e no progresso das interfaces de
uso. Com a fotografia, a videoarte, o cinema e, principalmente, com a inserção de
equipamentos informáticos na construção de obras digitais e também nos ambientes
virtuais, como nos webmuseus, foi possível confeccionar uma nova proposta plástica
recorrendo aos programas computacionais.
É no ambiente Web que está ocorrendo a fusão de linguagens e onde a arte agora
está imersa. Segundo Eirin de Rapp (2000, p. 44), essa fusão “[...] se reflete nas páginas de
arte, nas quais a informação estética é complementada por música, animação, conexões para
outras páginas [...]”, num fluxo intersemiótico que aguça novas percepções cognitivas.
As percepções cognitivas, estimuladas pelas possibilidades oferecidas no
ciberespaço, nos encaminharam para uma reflexão sobre as intersemioses digitais.
Entretanto, não há como falar de intersemioses digitais sem antes nos remetermos à
semiótica e à apresentação de seu conceito.
O estudo semiótico tem por objeto os signos e investiga todas as linguagens
possíveis, como, por exemplo, a linguagem oral (fala), a linguagem textual (textos), a
linguagem corporal (gestos), a linguagem visual (imagens), dentre outras, "no exame dos
3110
modos de constituição de todo e qualquer fenômeno de produção de significação e sentido”
(SANTAELLA, 1983, p. 13).
A semiótica, do grego semeiotiké, é a ciência que estuda o processo de articulação e
produção de sentido entre os diversos tipos de códigos e linguagens. Tem por objetivo
“estabelecer como devem ser todos os signos para uma inteligência capaz de apreender
através da experiência [...]” (SILVEIRA, 2007, p. 38). Ocupa-se do estudo do processo de
significação ou representação, na natureza e na cultura, dos conceitos e das ideias. Em uma
acepção geral a “semiótica é a teoria de todos os tipos de signos, códigos, sinais e
linguagens. Portanto, ela nos permite compreender palavras, imagens, sons em todas as suas
dimensões e tipos de manifestações” (SANTAELA, 2010, p.59).
A intersemiose, por sua vez, consiste
[...] na interpretação dos signos verbais por meio de sistemas de signos
não verbais’, ou ‘de um sistema de signo para outro, por exemplo, da arte
verbal para a música, a dança, o cinema ou a pintura, ou vice-versa [...]
(PLAZA, 2008, p. XI).
O processo tradutor intersemiótico, entretanto, é influenciado tanto pelos variados
tipos de linguagem (sonora, visual, digital etc.), quanto pelo meio empregado na tradução
de uma linguagem/mídia para a outra, por exemplo, por meio da transformação da
fotografia em filme (meio cinematográfico), ocorrendo mudanças na forma de linguagem e
no suporte. No entanto, ambos deixam a marca da história em seus processos e solicitam
outra sintaxe e outro modo de formar sentido.
O espaço de exposição das obras na tela do computador via Internet permite que o
usuário navegue contemplando as obras – muitas vezes com imagens em movimento. Ao
mesmo tempo em que ouve um fundo musical, visualiza os catálogos das obras expostas e a
biografia dos artistas. Esse espaço, com textos e imagens, possibilita ao visitante assistir a
vídeos com as entrevistas dos curadores comentando as exposições, ou até mesmo com os
próprios artistas falando sobre as obras ou a corrente artística de que fazem parte.
As tecnologias de manipulação de imagens e os novos ambientes virtuais para sua
hospedagem, como os webmuseus e as galerias virtuais, acarretaram mudanças em nosso
sistema cognitivo de percepção e recepção de informações imagéticas, “[...] criando
quadros de memórias, fornecendo os símbolos e o ambiente mental, requeridos para
determinados momentos de ruptura decisivos para a reestruturação dos sistemas da cultura”
(JORENTE, 2009, p. 105).
Segundo Grau (2007, p.16), “[...] arte e ciência, mais uma vez, aliam-se a serviço
dos métodos mais complexos de produção de imagens [...].” O mundo imagético ao nosso
3111
redor vem se transformando muito rapidamente. Ao mesmo tempo, presenciamos as várias
formas de imagens e suas formas de produção pelas novas mídias, que exercem forte
impacto sobre a teoria da imagem, teoria da cor e da arte como um todo, influenciando
também os ambientes onde as obras são expostas, como o caso dos museus.
3 MUSEUS E SEUS CATÁLOGOS
A análise dos catálogos e das obras de arte foi realizada na Pinacoteca do Estado de
São Paulo e no Museu de Arte Moderna de São Paulo – MAM-SP.
Fundada em 1905 pelo Governo do Estado de São Paulo, a Pinacoteca do Estado é
um museu de artes visuais, com ênfase na produção brasileira do século XIX até a
contemporaneidade.
O MAM-SP foi criado em 1948, por iniciativa do empresário Francisco Mattarazzo
Sobrinho e de um grupo de artistas e intelectuais, entre eles Sergio Milliet, Tarsila do
Amaral, Villanova Artigas, Antonio Cândido e Oswald de Andrade.
O estudo aqui apresentado foi realizado com a análise dos catálogos impressos e online de algumas obras dessas duas instituições, com a finalidade de fazer um levantamento
das principais transformações estético-informacionais ocorridas nas imagens das obras
transpostas em diferentes tipos de suportes, o catálogo impresso e o catálogo na Web.
3.1 Análise de catálogos de museu de arte
Diferentemente dos folders2 de mão, ou também conhecidos como folhetos
impressos publicitários, com poucas páginas, que servem para promover as exposições com
dados informacionais sobre as obras e os artistas, o catálogo de obras de arte pode ser
definido a partir da descrição de catálogo dada por Mey (1995, p.9):
[...] um canal de comunicação estruturado, que veicula mensagens
contidas nos itens, e sobre os itens, de um ou vários acervos,
apresentando-as sob forma codificada e organizada, agrupadas por
semelhanças, aos usuários desse(s) acervo (s).
Dessa forma, o catálogo de museu é um produto informacional estruturado que atua
como ligação entre o acervo e os usuários e “representa um exemplo de lista prática, que se
refere a objetos existentes em um lugar determinado” (CRIPPA, 2010, p. 30). Os catálogos
podem ser específicos, de determinados artistas, com fotos de suas obras, comentários feitos
por curadores e críticos de arte sobre suas exposições, ou ainda gerais, temáticos,
cronológicos, geográficos, entre outros.
2
Os folders são impressos publicitários com diversas dobras e formatos, usados para a
divulgação de eventos ou exposições, no caso dos museus. Ver imagens no apêndice.
3112
Os catálogos impressos oferecem não só a facilidade no manuseio, mas também a
visualização das obras seguida de sua ficha técnica e seu contexto histórico. Eles servem
como um guia e tradutor do acervo, levando o indivíduo a percorrer a exposição com um
conjunto de informações que atuam como apoio didático-pedagógico no processo de
aquisição de repertório e ampliação da base de conhecimento.
Entretanto, a estrutura visual e informacional de catálogos de museu de arte,
impressos ou na Web, varia muito, e o fator financeiro tem seu peso nessa diferença, pois
alguns são feitos com materiais de alta qualidade, luxuosos, e outros, não. Com os catálogos
digitais na Web, perde-se em intensidade, na medida em que se precisa de menor esforço
para mantê-los e menos dinheiro para construí-los, e ganha-se em extensividade, pois eles
aproximam as pessoas, recontextualizando as obras. Alguns catálogos impressos dispõem
de uma miniatura da obra – monocromática – junto com sua ficha técnica. Outros utilizam
imagens maiores policromáticas, com ficha técnica e um pequeno comentário sobre a obra,
como ilustra a FIG. 1.
FIGURA 1 - Catálogos impressos – MAM/SP e Pinacoteca do Estado de São Paulo
Fonte: Autor
Normalmente, as fichas técnicas das obras nos catálogos de museus de arte
impressas seguem um padrão estrutural para a apresentação organizada das informações.
As fichas descritivas oferecem ao usuário informações sobre o artista da obra, o
nome da obra – quando houver –, a data em que foi produzida, a técnica utilizada pelo
artista, a dimensão, e também, de onde ela veio até ser registrada no museu. São dados
importantes, pois é a partir dessas informações descritivas que a obra se torna um objeto
único em uma instituição.
A imagem nos catálogos de museus de arte é um instrumento informacional
fundamental e de extrema importância, pois é a imagem que representa a obra em sua
ausência, por isso deve ser o mais fiel possível. No entanto, nem sempre isso acontece,
como ilustra a FIG. 2.
3113
FIGURA 2 - Análise comparativa entre dois catálogos impressos 3
Fonte: Autor
No exemplo da FIG. 2, percebe-se a diferença nas tonalidades entre dois catálogos
impressos na representação da mesma obra. Na imagem à esquerda, a cor está próxima da
tonalidade ocre, já na imagem à direita a cor está voltada para o azul violeta.
Muitas vezes, quando uma obra é fotografada para servir de representação em
catálogos on-line, ocorrem mutações em suas cores. Isso acontece devido ao fato de que a
cor luz ‘Newtoniana’ difere da cor pigmento. Nos catálogos digitais on-line, as cores das
obras se convertem em modelos de cores RGB (vermelho-Red, verde-Green, azul-Blue).
O propósito principal do sistema RGB é a reprodução de cores em dispositivos
eletrônicos, como monitores de TV e computadores. Esse sistema de cores segue o modelo
baseado na teoria de visão colorida tricromática, de Young- Helmholtz.
No caso de obras tridimensionais, como em esculturas, fazendo também referência à
FIG. 2, quando fotografadas sofrem perdas em sua composição espacial, pois a obra
escultórica, na foto, perde uma dimensão, ficando bidimensional e achatada.
Na análise comparativa entre dois catálogos, impresso e on-line, da Pinacoteca do
Estado de São Paulo, em que a imagem ilustrada representa a mesma obra, conforme figura
3 - Cabeça de índio - do pintor Henrique Bernadelli, houve diferenças na qualidade estética
da imagem em relação às suas dimensões:
FIGURA 3: catálogos impresso e on-line – Pinacoteca
3
AMARAL, A. (Org.). Museu de Arte Contemporânea da Universidade de São Paulo: Perfil de
um Acervo. São Paulo: Techint. 1988. 391p. MAC USP 40 anos: interfaces contemporâneas.
Apresentação: Adolpho José Melfi. Introdução: Elza Adjzenberg. Texto: Elza Adjzenberg.
Helouise Costa. Cristina Freire. Gabriela Wilder. Daisy Peccinini. Kátia Canton. São Paulo
(SP): Museu de Arte Contemporânea – MAC, São Paulo. 2003.
3114
Fonte: Autor
No catálogo on-line, a imagem é menor em relação à mesma imagem no catálogo
impresso. Em muitos casos, quando a imagem ilustrativa da obra em catálogos é muito
pequena, há o comprometimento da visibilidade dos detalhes e do conjunto plástico da obra,
ofuscando muitas vezes informações visuais que são essenciais para o conjunto da obra.
O acervo on-line da Pinacoteca se apresenta por meio de uma lista alfabética dos
artistas com nome, seguido de data de nascimento/morte e número de obras disponíveis na
base de dados.
A análise semiótica de algumas obras é apresentada a seguir, como uma
possibilidade metodológica para a averiguação das transformações ocorridas na passagem
da reprodução da obra original para os suportes impressos e digitais.
3.2 Análise semiótica de obras musealizadas
Diante de uma obra de arte, a primeira coisa que o observador costuma fazer em sua
leitura visual é enxergar os índices, ou seja, ele compreende que se trata de uma mulher,
com vestimentas negras, segurando uma carta na mão esquerda, encostada em uma janela
aberta. Não existe caminho mais fácil para perder rapidamente quali-signos como esse,
pois, agindo dessa forma retraímos nossas sensibilidades para com as qualidades plásticas
da obra.
Para evitar esse risco, temos que olhar as obras sempre com novos olhares e tentar
retardar as nomeações tipo: “isso é aquilo”, “aquilo é aquilo” etc. A recomendação diante
3115
de uma obra de arte é que nos deixemos agir como a criança, que ainda não é capaz de
reconhecer figuras, para que possamos perceber as qualidades plásticas da pintura.
Para a pintura, como objeto único, suas qualidades (quali-signos) são essenciais. Por
isso a importância, quando se trabalha com análise qualitativa de obras de arte, do contato
direto com a original, pois é na original que percebemos as cores, as texturas, o gesto da
mão do pintor ao riscar a tela com a tinta.
A análise consiste na descrição de seus aspectos compositivos, levando em
consideração: Estrutura, Forma, Função e Conteúdo, tendo como base teórica a
semiótica aplicada.
Esses aspectos são analisados com o objetivo de estabelecer parâmetros de
comparação entre a obra e suas versões impressa e digital na Web, apesar de concordarmos
com a notificação do autor Walter Benjamim (1936), que diz a importância de estarmos
presente em frente da obra original “hic et nunc”, para notarmos sua qualidade plástica e
sua potência aurática.
Tendo isso em mente e, tendo como parâmetro a obra original, apresenta-se a
análise comparativa com o intuito de pontuar as principais transformações sofridas pela
obra na passagem de um suporte para o outro, como ilustra a FIG. 4, tendo como foco a
representação da obra nos catálogos.
FIGURA 4 - Análise comparativa da obra Saudade - original, impressa, digital na Web
Fonte: Autor
3116
Quando estamos dentro de um museu presencial (paredes), sentimos a presença do
público, dos espaços arquiteturais, da iluminação, dos ruídos, da distância entre um quadro
e outro, da variedade de tipos de moldura que cada quadro possui. Essas características são
as que se perdem com a qualidade plástica da obra na apresentação em ambientes virtuais
de exposição. Porém, são perdas compensadas, muitas vezes, com ganhos de outras
‘qualidades’, que não seriam possíveis nos ambientes tradicionais. Para ilustrar de forma
sintética essas transformações, apresenta-se o QUADRO 2.
QUADRO 2 - Transformações do quadro Saudade após a digitalização e transposição para
diferentes suportes
Estrutura
Tela com moldura
fixada em parede
Papel (vários tipos de papéis e Plataforma Web; suporte digital
formatos)
(bits e bytes)
Forma
REPRODUÇÃO DIGITAL –
WEB
Presença gestual do
pintor como (sinais
das
pinceladas);
linhas,
pontos,
cores,
texturas,
formas geométricas;
imagem feita com
pigmento orgânico
– tinta
Perda da qualidade gestual como
(sinais das pinceladas); não há
textura, mudança nas cores
(formato CMYK – Cyan,
Magenta, Yellow and Black);
redução das formas e da nitidez
dos detalhes figurativos da obra
Perda da qualidade gestual como
sinais das pinceladas; não há
textura, mudança nas cores
(formato RGB – Red, Green and
Blue); redução das formas e da
nitidez dos detalhes figurativos da
obra
Função
REPRODUÇÃO IMPRESSA
Contemplativa,
comunicativa,
aurática
Informativa/representativa
Informativa/simulativa/interativa
Conteúdo
OBRA
ORIGINAL
Plaquetas
informativas;
curadores
Imagem; ficha técnica; análise Imagem; ficha técnica; análise
comentada da obra (contexto comentada da obra (contexto
histórico)
histórico); hiperlinks
Fonte: Autor
Algumas imagens não constam do catálogo on-line do MAM/SP, por falta de
autorização dos responsáveis legais. Contudo, há exemplos, como o caso do painel dos
grafiteiros OsGêmeos, que constam do catálogo on-line do museu e possuem imagens
coloridas. No entanto, a imagem disponível no site comprometeu a boa visualização das
figuras que constam do painel e que não podem ser vistas pela imagem disponibilizada pelo
catálogo on-line, como se nota na FIG. 5.
3117
FIGURA 5 - Painel d’Os Gêmeos: catálogo on-line do MAM/SP
Fonte: http://www.mam.org.br/acervo_online
Partindo de uma breve análise visual e utilizando a semiótica aplicada de Santaella
(2010), percebemos que partes da obra que são vistas apenas na presença da obra original se
perdem na exposição disponibilizada pelo catálogo na Web, como mostra a FIG. 6.
FIGURA 6: Parte da obra sem nitidez na exposição pelo catálogo na Web
Fonte: Autor
Quando nos deparamos com uma obra de arte, nosso olhar se direciona para
determinada parte dela, algo que chama a atenção, somos direcionados para um ponto da
figura, de modo intuitivo ou não. Essa era uma técnica utilizada por pintores renascentistas,
como pode ser visto nas obras do pintor Jan van Eyck. As obras renascentistas eram
pensadas sobre estruturas visuais, feitas simetricamente no espaço da tela com a intenção de
dar um equilíbrio e ao mesmo tempo direcionar o olhar do espectador para certos pontos da
imagem.
3118
Fazendo uma análise do painel d’OsGemeos, percebemos certas semelhanças com
esses elementos compositivos. As extremidades, por serem simétricas, dão equilíbrio à
obra. Mas isso só se percebe com a visão da obra por inteiro, ao se fazer uma leitura linear
em panorâmica.
FIGURA 7: leitura visual do painel d’OsGemeos – visão panorâmica
Fonte: Autor
Assim como o pintor holandês Hieronymus Bosh (1450-1516), os grafiteiros fazem
uso nesse painel de muitos elementos visuais (muitas figuras, detalhes, efeitos de cores,
texturas etc.). Limitaremos nosso estudo, para fins didáticos, à análise sintática da imagem e
faremos um pequeno recorte, decompondo-a, para análise desses elementos.
No primeiro quadrante, percebemos a riqueza nos detalhes, no uso de cores intensas
e variadas: um peixe na cor rosa com a boca aberta, como se estivesse tentando engolir a
cabeça de uma figura masculina, ao mesmo tempo em que nos remete a uma imagem de um
ornamento, como se fosse um chapéu, usado por essa figura masculina. Na extremidade
superior direita, veem-se detalhes do desenho com figuras pequenas em azul, de estrelas
feitas por técnicas de estêncil (máscaras/moldes), assim como na parte inferior do quadrante
percebem-se os detalhes coloridos de formas geométricas na vestimenta da figura.
No segundo quadrante, nota-se a face da figura feita na cor amarela (marca
característica dos grafiteiros) e a presença de várias carinhas amarelas, que estão presentes
em várias partes do quadro, em roupas, instrumentos musicais, objetos etc.
No terceiro quadrante, a presença do efeito de água e seu movimento com cores e
transparências. O traço fino da ponta do spray que, simulando uma fina pincelada, também
é presente nas obras dos grafiteiros.
3119
FIGURA 8: Decompondo o painel para análise semiótica
Fonte: Autor
Essas são algumas das possíveis observações visuais da obra, que demonstram a
marca gestual do pintor, e que se perdem na passagem para os catálogos digitais na Web.
Como exemplo, observe-se a figura no catálogo do MAM-SP:
FIGURA 9: Análise comparativa entre a obra original e a imagem no catálogo na Web
Fonte: Autor
3120
Nessa imagem comparativa, percebemos que os elementos visuais que compõem a
obra, assim como a linearidade da leitura da imagem, se perdem. Isso ocorre devido à
posição em que foi tirada a fotografia do painel. Dessa forma, a imagem disponibilizada no
catálogo na Web não nos permite ver a obra como um todo, pois a visualização da parte
direita do painel foi prejudicada.
No QUADRO 3, é apresentada a síntese das transformações qualitativas da obra
analisada em sua transposição para o catálogo digital.
QUADRO 3 - Síntese das transformações qualitativas do painel d’OsGêmeos e sua
reprodução
REPRODUÇÃO DIGITAL –WEB
Estrutura
Parede, pigmentos orgânicos (tintas)
Plataforma Web; suporte digital (bits e bytes).
Forma
Presença gestual do pintor, como efeitos
visuais (efeitos com máscaras e sprays –
estêncil), linhas, pontos, cores, texturas,
formas geométricas
Perda da qualidade gestual do pintor, como
efeitos com máscaras e sprays – estêncil,
distorções nas formas e figuras, mudança nas
cores (formato RGB – Red, Green and Blue);
redução das formas e da nitidez dos detalhes
figurativos da obra
Função
Contemplativa, comunicativa, aurática
Informativa/simulativa/interativa
Conteúdo
OBRA ORIGINAL
Curadores
Imagem; ficha técnica, hiperlink
Fonte: Autor
Diante da análise dos resultados, conclui-se que a digitalização das obras analisadas
e sua transposição para outros tipos de suporte fez com que ocorressem mudanças, tanto
estruturais e formais, quanto na função e no conteúdo da obra. Pois, os diferentes tipos de
suportes, como o impresso (papel) e o digital na Web, possuem particularidades que afetam
as qualidades da obra original. Ao fazermos uma análise das particularidades de cada tipo
de suporte, levando em consideração a questão que mais afetou a obra (mudança na cor)
concluímos que a cor luz difere da cor pigmento.
Ao digitalizarmos uma obra, transportando sua imagem para o ambiente da Internet
em forma de catálogos on-line, para ser vista por meio de dispositivos eletrônicos
(computador, tablet, telefone móvel etc.) sua estrutura muda de pigmento orgânico (tinta,
3121
tecido, parede etc.) para a linguagem computacional (pixel). Essa semiose afeta tanto a obra
quanto seu significante.
Quando uma obra é digitalizada para servir de catálogo impresso, as cores que serão
aplicadas para representar a obra constituem-se de quatro canais de cores: ciano, magenta,
amarelo e preto – sistema de cores chamado de (CMYK). No entanto, se a mesma obra for
digitalizada e transposta para o ambiente Web, ocorrem transformações também
relacionadas à mudança na cor, pois ela passa para a linguagem (RGB), que funciona sob
três canais de cores: vermelho, verde e azul, que também dará origem a outras variáveis,
gerando uma composição diferente da linguagem (CMYK), como mostra a FIG. 10.
FIGURA 10: Sistema de cores
Fonte: http://www.answers.com/topic/rgb-2
Dessa maneira, o papel do profissional da informação, em conjunto com o
profissional da área da informática (designer gráfico), e o da museologia, entre outros,
deverá ser o de buscar alternativas para o estabelecimento de uma adequada visualização
das obras de arte nos variados tipos de suportes e formas de apresentação, no sentido de
manter a integridade das informações representadas, levando em consideração a relevância
dos diferentes tipos de ambientes informacionais na aquisição e apropriação do
conhecimento.
4 CONSIDERAÇÕES FINAIS
Percebemos que, por meio das reproduções digitais das obras de arte, houve uma
quebra de paradigma, passando de imagem contemplação para imagem representação, até
culminar em imagem simulação (SANTAELLA, 2001). Nesse contexto, um número
considerável de obras de grandes mestres tem sido disponibilizado, pelo menos
potencialmente. Embora a socialização aproxime o patrimônio cultural da humanidade de
3122
uma grande parcela da população, as obras em si, ou melhor, seus simulacros, deixam a
desejar, pois, na passagem de uma linguagem semiótica para outra ocorrem perdas
informacionais relativas à estrutura plástica e que enriquecem a obra e caracterizam sua
essência.
A transformação mais evidente observada pela análise das obras originais e sua
versão digitalizada em forma de catálogos, tanto impressos quanto os da Web foi: a
diferença de cores entre o catálogo impresso e a obra, levando em consideração os tipos de
papel utilizados no catálogo impresso, e a diferença de cores entre a obra e o catálogo online, pois a cor luz difere da cor pigmento. Essas diferenças refletem no resultado final das
imagens dos catálogos (impresso e on-line). Nas obras tridimensionais, como as obras
escultóricas, há perdas em uma dimensão, ficando a imagem achatada e bidimensional.
Com os catálogos digitais on-line, há esforço e custo menores no processo de atualização do
acervo, o que os torna mais acessíveis ao visitante, ganhando em extensividade.
A herança artística da humanidade está agora ao alcance de todos os interessados em
arte e para quem possua acesso à rede Internet, não importando sua localização geográfica
ou sua classe social.
REFERÊNCIAS
AUMONT, J. A imagem. Campinas: Papirus, 1993.
BARRETO, A. A. Os destinos da ciência da informação: entre o cristal e a chama.
DataGramaZero, Rio de Janeiro, n. 0, dez. 1999. Disponível em:
http://www.datagramazero.org.br/dez99/Art_03.htm. Acesso em: 17 nov. 2011.
BARRETO, A. A. Uma quase história da Ciência da Informação. DataGramaZero, Rio
de Janeiro, v. 9, n. 2, abr. 2008. Disponível em: <http://dgz.org.br/ago07/Ind_com.htm>.
Acesso em: 28 ago. 2011.
BENJAMIN, W. A obra de arte na era de sua reprodutibilidade técnica. In: ______. Magia
e técnica, arte e política: ensaios sobre literatura e história da cultura. São Paulo:
Brasiliense, 1994. p. 165-196. (Obras Escolhidas, v. 1).
COUCHOT, E. A tecnologia na arte: da fotografia a realidade virtual. Porto Alegre: Ed.
UFRS, 2003.
CRIPPA, G. A faceta humanística da ciência da informação: ordem e memória do/no
museu. In: SEMINÁRIO SERVIÇO DE INFORMAÇÃO EM MUSEU, 1., 2010, São
Paulo. Anais... São Paulo: Pinacoteca do Estado de São Paulo, 2010. p. 23-51.
CZEGLEDY, N. Arte como ciência: ciência como arte. In: DOMINGUES, D. (Org.). Arte
e vida no século XXI: tecnologia, ciência e criatividade. São Paulo: Ed. UNESP, 2003.
3123
EIRIN DE RAPP, M. N. Web-paginas de arte: informação X arte. In: PINHEIRO, L. V. R.;
GONZÁLEZ DE GÓMEZ, M. N. (Org.). Interdiscursos da Ciência da Informação: arte,
museu e imagem. Rio de Janeiro; Brasília, DF: IBICT/DEP/DDI, 2000. p. 43-58
FARTHING, S. Tudo sobre arte. Rio de Janeiro: Sextante, 2011.
GRAU, O. Arte virtual: da ilusão a imersão. Tradução Cristina Pescador et al. São Paulo:
Ed. Unesp: Ed. Senac São Paulo, 2007.
JORENTE, M. J. V. Tecnologías, mídias, criação e hipertextualidade na transformação
da informação em conhecimento interativo. 2009. 244f. Tese (Doutorado em Ciência da
informação) – Faculdade de Filosofia e Ciência, Universidade Estadual Paulista, Marília,
2009.
LEMOS. A. Cibercultura: tecnologia e vida social na cultura contemporânea. Porto
Alegre: Sulina, 2008.
MEY, E. S. A. Introdução à catalogação. Brasília DF: Briquet de Lemos, 1995.
NEGROPONTE, N. A vida digital. Tradução de Sérgio Tellaroli. São Paulo: Companhia
das Letras, 1995.
PINHO, J. A. S. As novas tecnologias da informação e comunicação diante da
transversalidade entre natureza e cultura. Culturas Midiáticas, Paraíba, Ano I, n. 1,
jul./dez., 2008. Disponível em:
<http://www.cchla.ufpb.br/ppgc/smartgc/uploads/arquivos/b29c8438c920100526091245.pd
f. Acesso em: 24 jun. 2011.
PLAZA GONZALES, J. As imagens de terceira geração, tecno-poéticas. In: PARENTE, A.
(Org.). Imagem máquina: a era das tecnologias do virtual. Rio de Janeiro: Ed. 34, 1993. p.
72-88.
PLAZA GONZALES, J. Tradução intersemiótica. São Paulo: Perspectiva, 2008.
SANTAELLA, M. L. NOTH, W. Imagem: cognição, semiótica e mídia. São Paulo:
Iluminuras, 2001.
SANTAELLA, M. L. O que é Semiótica. São Paulo: Brasiliense, 1983.
SANTAELLA, M. L. Semiótica aplicada. São Paulo: Cengage Learning. 2010.
SILVEIRA, L. F. B. Curso de Semiótica Geral. São Paulo: Quartier Latin, 2007.
3124
UTILIZANDO O GOOGLE ANALYTICS PARA MONITORAR A AUDIÊNCIA DE
BLOGS
USING GOOGLE ANALYTICS TO MONITOR THE AUDIENCE OF BLOGS
Célio Andrade Santana Júnior
Camila Oliveira Lima
Resumo: Realizar as atividades de monitoramento de mídias sociais se mostra como um
trabalho complexo devido ao comportamento passivo que a maioria dos usuários (lurkers)
exercem em sites de redes sociais e não deixam rastros perceptíveis da participação dos
mesmos nestes espaços. Para realizar esse monitoramento, foram adotadas atividades de
web analytics que podem auxiliar os administradores destas mídias sociais a avaliar a
audiência “invisível” do seu canal de comunicação. Este trabalho tem como objetivo
apresentar a ferramenta Google Analytics, como ela pode ser utilizada para monitorar a
audiência de blogs e que tipos de indicadores são coletados. Para avaliar a ferramenta, esta
foi aplicada ao o blog vernasunhas.blogspot.com por um período de 8 meses para coletar
informação sobre a audiência do blog. A coleta dos dados da audiência foi realizada pela
própria ferramenta enquanto a análise se deu a partir uma análise temática baseada nos tipos
de métricas encontrados. Foi percebido que a ferramenta auxilia apenas em parte no
trabalho do monitoramento dos dados relativos à audiência uma vez que ela se mostra capaz
de coletar os dados relativos às métricas frias que refletem apenas a participação do usuário
nos blogs não se mostrando adequada para coletar dados relativos às métricas mornas e
quentes relativas a engajamento e fidelização. Desta forma, o Google Analytics não pode
ser utilizado como única fonte de informação para um monitoramento eficiente da
audiência de um blog.
Palavras-chave: Blogs. Google Analytics. Web Analytics.
Abstract: Perform activities of monitoring social media appears as a complex task due to
passive behavior that most users (lurkers) exert on social networking sites and leave no
discernible trace of the participation of these same spaces. To perform this monitoring, were
adopted from web analytics that can assist administrators of these social media to review
the "invisible" hearing your channel of communication activities. This paper aims to present
Google Analytics tool, as it can be used to monitor the hearing of blogs and what kind of
information it collects indicators. To evaluate the tool, it was applied to the
“vernasunhas.blogspot.com” blog for a period of 8 months to collect information on the
hearing of the blog. The collection of audience data was performed by the tool while the
analysis was done from one based thematic analysis on the types of metrics found. It was
noticed that the tool helps only partly the work of monitoring data relating to the audience
once she proves able to collect data on the cold metrics that reflect the user participation in
blogs not showing adequate to collect data warm and hot metrics related to engagement and
loyalty. Thus, Google Analytics can’t be used as the sole source of information for effective
monitoring of the hearing of a blog.
Keywords: Blogs. Google Analytics. Web Analytics.
1 INTRODUÇÃO
Atualmente vivemos em um mundo no qual os crescentes avanços da tecnologia e
da comunicação vêm exercendo uma forte influência sobre a sociedade (SCHONS, 2007, p.
3125
1) Dentre os avanços na comunicação, o meio que mais se destaca é a internet, devido a sua
amplitude global e facilidade de acesso (JARDIM, 2010, p. 6).
A Internet se mostra cada vez mais integrada à vida cotidiana em questões relativas
ao uso das informações neste espaço estão mudando do “quem está logado” para uma
análise mais aprofundada do que as pessoas fazem online. Entre estas considerações, existe
um crescente reconhecimento de que a Internet está estimulando conexões e forjando novas
ligações entre pessoas e organizações (HAYTHORNTHWAITE, 2005).
Com o advento da Web 2.0, termo cunhado pela empresa norte-americana O’Reilly
Media para designar a segunda geração da Web. Diversas ferramentas de Tecnologia de
Informação e Comunicação (TIC) foram construídas criando assim novos espaços para
construção do conhecimento, além de proporcionar a iteração entre usuários em tempo real
bem como a participação destes usuários de forma mais atuante (ALEXANDER, 2006).
Novos meios de comunicação se tornaram cada vez mais familiares ao público em
geral e o seu uso foi sendo adaptado a partir de convenções comuns. Estes novos canais se
mostram essenciais para manter o trabalho e conexões sociais da vida cotidiana
atravessando os diversos mundos sociais do indivíduo tais como: trabalho, casa, e qualquer
tipo de geografia (WELLMAN; HAYTHORNTHWAITE, 2008).
Esta nova geração da Internet foi caracterizada pelo surgimento das mídias sociais
que logo se tornaram populares reunindo um número considerável de usuários em um
mesmo espaço. Neste contexto, podemos considerar que a primeira mídia social a atingir
um número massivo de usuários foram os Blogs e, por este motivo, provavelmente, é a
ferramenta da Web 2.0 mais conhecida e utilizada pelos usuários (JARDIM, 2010).
Bruns (2008) define blogs como uma página na internet que, se pressupõe, ser
atualizada com frequência através da publicação de mensagens – chamados de posts –
constituídas por imagens e/ou textos normalmente de pequenas dimensões, muitas vezes
incluindo hiperlinks para outras páginas de interesse e/ou comentários e pensamentos
pessoais do autor, e apresentadas de forma cronológica, sendo as mensagens mais recentes
normalmente apresentadas em primeiro lugar.
Barros (2004) sugere que uma das vantagens em se utilizar dos blogs, é que
qualquer usuário que tenha acesso a Internet pode criar uma página deste tipo, uma vez que
a tecnologia empregada é bastante simples. E que o sucesso no uso dos blogs se dá devido à
facilidade de se publicar conteúdo online. Neste contexto, os blogs são parte de uma
crescente conjunção de comunicação pessoal e ferramentas de gerenciamento de
3126
informação que fornecem um mar infinito de histórias para leitores que compartilham dos
mesmos interesses.
Scoble e Israel (2006) sugerem que com a popularização dos blogs, diversos
fenômenos relativos ao comportamento dos usuários na Internet foram observados. O
primeiro deles é a que os usuários passam não somente a consumir informações, mas
também, produzir conteúdo neste espaço. Esse novo perfil de usuários foi denominado
prosumers, expressão oriunda da língua inglesa a partir da junção das palavras Producer e
Consumer. Este neologismo foi registrado por Alvin Toffler (1980) na obra “A Terceira
Onda”, onde ele sugere o novo papel do consumidor da informação e bens culturais na
sociedade pós-moderna. Nielsen (2006) observa outro fenômeno que é a massiva presença
de usuários que não geram nenhum tipo de conteúdo em um blog, estes usuários são
chamados de Lurkers.
Nielsen (2006) sugere que 90% do conteúdo publicado em mídias sociais são
produzidos por apenas 1% dos usuários, enquanto 9% dos usuários geram os outros 10% e
90% dos usuários são lurkers. Isso implica que para cada usuário que comenta, realiza uma
marcação, curte ou compartilha conteúdo de um blog, outros nove visitaram e consumiram
aquele conteúdo.
O uso de blogs no meio empresarial fica evidenciado no estudo state of blogosphere
(2011). Este sugere que uma em cada oito empresas mantém um blog ativo. A pesquisa
também indicou que 57% das empresas com blogs adquirem pelo menos um novo
cliente/consumidor através deste canal de comunicação. E por fim aponta 61% dos
consumidores que compram em lojas virtuais nos Estados Unidos fizeram compras baseada
em recomendações de blogs. Cerca de 46% dos blogueiros entrevistados se consideram
probloggers, ou seja, blogueiros que se tornaram referência para determinados assuntos de
interesse e acabaram por transformar os seus blogs em um meio rentável caracterizando,
portanto, a profissionalização destes. (AKRITIDIS; KATSAROS; BOZANIS, 2009).
Devido ao caráter comercial alcançado pelos blogs, se tornou uma prática comum o
monitoramento do conteúdo por parceiros ou concorrentes promovido nestes canais
(HONSCHA, 2009) ou até mesmo monitorar a própria audiência com o intuito de conhecer,
e se comunicar, melhor com os usuários “consumidores” (PIKAS, 2005).
Blogs são considerados fontes de informação “potencialmente útil” e devido à sua
numerosa quantidade, elaborar uma lista destes e monitorá-los é considerada uma tarefa
exaustiva (NANNO ET. AL, 2004). Por movimentarem uma quantidade muito grande de
dados, em um espaço tão curto de tempo, a tarefa de monitorar as informações que circulam
3127
nestas mídias seria impossível sem o auxílio de ferramentas técnicas adequadas
(CARVALHO, 2012).
Uma empresa com uma visão estratégica online bem estabelecida não pode mais
ignorar o potencial dos blogs como ferramenta de comunicação. Tornou-se vital
Acompanhar as conversações que ocorrem na rede para conseguir agir rapidamente às
movimentações do mercado (CIPRIANI, 2006, p.113). Por isso, mais importante para as
empresas do que avaliar o conteúdo das mídias sociais relativos aos concorrentes, é
monitorar o público que consome o conteúdo criado em suas próprias mídias sociais
(HONSCHA, 2009).
A motivação deste trabalho vem do reconhecimento da complexidade em monitorar
a audiência dos próprios visitantes em blogs. Então perguntas do tipo: como perceber a
audiência de um blog específico? Como coletar essas informações? As informações
disponibilizadas são suficientes para determinar a satisfação dos usuários com um blog?
O presente trabalho tem como objetivo geral apresentar a ferramenta Google
Analytics e utilizá-la para realizar o monitoramento de um blog real com o intuito de
verificar quais informações sobre os visitantes são coletados pela ferramenta e se é possível
avaliar a audiência do blog a partir destas informações. Este estudo justifica-se pela analise
das métricas fornecidas pela ferramenta de web analytics e determinar se ela é,
efetivamente, satisfatória no processo de monitoramento de blogs.
2 LITERATURA PERTINENTE
2.1 Blogs
Enquanto fenômeno emergente e persistente da cibercultura, os blogs demonstram
um sintoma (e consequência) do desejo das pessoas de manter-se conectadas e em
comunicação (LEMOS, 2009). Inicialmente os blogs foram considerados “diários online”,
contudo, com o desenvolvimento desta mídia social, houve uma evolução em termos das
ferramentas em si e em tendências temáticas até atingir a profissionalização (HINERASKY,
2012).
O termo “weblog” foi dado pelo norte-americano Jorn Barger para referir-se ao seu
jornal online e este se deriva da junção das palavras “web” (rede) e “log” (diário de
navegação) e foi utilizada para designar uma página que permite a construção de um diário
pessoal da rede (HINERASKY, 2012). A abreviação “blog” teria surgido apenas em maio
de 1999, quando Peter Merholz divide o termo em “we-blog” (nós blogamos) ou apenas
“blog”, criando ao mesmo tempo o verbo blogar e o sujeito blogueiro (MALINI, 2008).
3128
Ordunã (2007) sugere que blogs são páginas pessoais na Internet que, devido à
semelhança de diários online, tornam possíveis a todos publicar na rede. Por ser uma
publicação focada no usuário e no conteúdo, e não na programação ou no design gráfico, os
blogs multiplicaram o leque de ações dos usuários de Internet de levar para a rede conteúdo
próprio e atualizado, sem intermediários (MALINI, 2008; ORDUNÃ, 2007).
Sendo assim, podemos considerar os blogs como espaços democráticos onde os
usuários são livres para opinar sobre qualquer assunto e discutir a respeito de qualquer tema
de seu interesse, compartilhando suas ideias com os usuários da rede, permitindo a
disseminação de informações que eram, muitas vezes, subestimadas pelas mídias
tradicionais. Essa maior possibilidade de interconexões promovida pela internet permite que
os blogueiros acessem o conteúdo uns dos outros, por meio de referências, formando assim
uma comunidade ou rede social (SPYER, 2007; ORDUNÃ, 2007).
Ordunã (2007) sugere que o principal elemento de um blog são as postagens (posts),
ordenadas segundo a cronologia inversa (com as publicações mais recentes primeiro), em
que cada uma possui um endereço URL permanente que facilita sua conexão a partir de
sites externos. As histórias podem ser arquivadas e apresentadas, ou cronologicamente (por
meses e anos) ou por temática (categorias/tags). A maior parte dos blogs traz uma seleção
de conexões (blogroll) que reúne os websites lidos ou pelo menos recomendados pelo autor
e alguma referência pessoal que, com o título e a descrição do blog que ajudam o leitor a
situá-lo.
Esta interconexão entre todos os tipos de blogs por meio das blogrolls e suas
hiperligações configura um fenômeno social, um “ente coletivo”, denominado por Willian
Quick, em 2001, como blogosfera (MALINI, 2008), caracterizado pelo espírito comunal
que distingue preferências, popularidades de estilos e produtos (HINERASKY, 2012). A
blogosfera é um espaço no qual são estabelecidas milhares de conversações paralelas e
muitas delas podem possuir informações úteis para as organizações e até mesmo para os
indivíduos (ORDUNÃ, 2007).
Hinerasky (2012, p. 43) afirma que é possível diferenciar, na prática, as etapas que
envolvem a conexão entre autores e leitores: a) tomada de conhecimento do blog pelo
leitor; b) descoberta de um interesse comum; c) trocas individuais e trocas em grupo; d)
confiança e construção da autoridade. Estas etapas levam aos blogueiros à conquista da
audiência e a possibilidade de notoriedade e legitimidade entre os pares, leitores e
empresas.
3129
Neste sentido, a audiência de um blog se constitui, basicamente, das relações
estabelecidas entre os interagentes e é medida de duas formas, (i) por captação e (ii) por
interação (HINERASKY, 2012).
3130
2.2 Web analytics e monitoramento de mídias sociais
Segundo o Aberdeen Group (2000), web analytics é o monitoramento e
comunicação de uso de uma página na internet de modo que empresas possam entender
melhor a complexa relação entre as ações dos visitantes e uma página em si com o intuito
de otimizar o sítio para aumentar as vendas e a lealdade do cliente. Waisberg e Kaushik
(2009) apontam que a web analytics é a ciência de aprimorar websites com o intuito de
aumentar a sua rentabilidade através da promoção de uma melhor experiência do usuário
quando este o visita. É uma ciência porque a web analytics utiliza estatísticas, técnicas de
mineração de dados, e um processo metodológico.
Inan (2002) aponta que o surgimento da web analytics se deu por entender que a
internet representa um canal de negócios em si mesmo, ao invés de ser apenas uma
ferramenta de publicidade, e como tal, necessita de uma abordagem holística para a
medição de elementos na rede.
Quando tratamos de redes sociais em si as técnicas de web analytics são conhecidas
como monitoramento de mídias sociais. E neste sentido, esta surge como uma nova área de
conhecimento que visa “captar, agregar, analisar e auxiliar as organizações na criação de
ações e estratégias para o negócio de forma rápida e com base nas informações geradas de
forma espontânea pelos consumidores nesses canais” (E-LIFE, 2012). O papel do
monitoramento é ser um radar da empresa no “burburinho” online, que remete não só as
opiniões e avaliações dos consumidores, mas também o comportamento do mercado com
relação à marca e seus concorrentes. Os depoimentos espontâneos disponíveis nas redes
sociais são também “fonte para novas ideias e possibilidades para produtos e serviços”
(LIFE, e. 2013b).
A empresa SocialMedia Monitor (2013) afirma que a complexidade deste
monitoramento parte da nova realidade uma vez que “[...] as marcas já tiveram controle
absoluto sobre o conteúdo exposto de sua imagem enquanto hoje, com a internet e, mais
especificamente, com as redes sociais, são os consumidores que criam o conteúdo”. Neste
contexto, o consumidor, que também é usuário das redes sociais, assume também outro
importante perfil: o de influenciador (SOCIALMEDIA MONITOR, 2013).
Silva (2010) define monitoramento de mídias sociais como:
Coleta, armazenamento, classificação, categorização, adição de
informações e análise de menções online públicas a determinado(s)
termo(s) previamente definido(s) e seus emissores, com os objetivos de:
(a) identificar e analisar reações, sentimentos e desejos relativos a
produtos, entidades e campanhas; (b) conhecer melhor os públicos
3131
pertinentes; e (c) realizar ações reativas e proativas para alcançar os
objetivos da organização ou pessoa (SILVA, 2010).
Quando tratamos especificamente sobre o monitoramento de blogs, Orduña (2007,
p. 179) elucida:
A opinião dos consumidores está ali, esperando ser ouvida pelas empresas,
e pode ser consultada gratuitamente. Informações sobre referencias, idéias,
propostas, necessidades, sonhos e aspirações de indivíduos, que até então
somente eram obtidas mediante pesquisa de mercado cara, agora estão
disponíveis e ao alcance de todo mundo, inclusive dos concorrentes
(ORDUÑA, 2007, p.179).
A E-Life (2013) aponta que algumas vantagens diferenciam o monitoramento de
mídias sociais das demais metodologias de investigação do mercado e do comportamento
do consumidor dentre as quais se destacam: (i) Velocidade e custo, (ii) Informações sem
filtro, (iii) Informações espontâneas e contextualizadas, (iv) dados qualitativos e
quantitativos, (v) Informações vão além das perguntas.
Existem duas maneiras de monitoramento de mídias sociais (i) Reativo e (ii)
Proativo. No monitoramento reativo, a marca responde às citações diretas do consumidor,
seja positiva ou negativa. Já no monitoramento proativo, a marca deve monitorar as
empresas concorrentes e a sua própria marca a fim de captar potenciais clientes (MEDIA,
2013).
2.3 Ferramentas para o monitoramento de mídias sociais
Para auxiliar no processo de coleta de dados para o monitoramento da audiência das
mídias sociais existem inúmeras ferramentas. Laine e Fruhwirth (2010) ressaltam que:
Ferramentas para monitoramento de mídias sociais são (na maioria das
vezes) serviços de software oferecidos através da Internet para filtrar e
analisar o conteúdo textual produzido por e na mídia social. As
ferramentas encontram conteúdo baseados nas palavras-chave definidas
pelos usuários. As ferramentas incorporam múltiplas funcionalidades,
como análise de volume, fonte, autor, palavra-chave, região e sentimento,
e reportam estas análises convenientemente de modo gráfico (LAINE, M.;
FRUHWIRTH, C., 2010).
Na concepção de Faustino (2013) a importância em medir o impacto social de uma
publicação específica ou do próprio blog como um todo tem como objetivo se adequar as
preferências do usuário. Medir este impacto social possibilita a compreensão de quais os
tipos de conteúdo os leitores preferem. Desta forma, o blogueiro pode criar novos posts,
direcionados, com o intuito atrair mais leitores para o blog.
3132
Por isso, algumas ferramentas de monitoramento de audiência já são
disponibilizadas pelas próprias ferramentas de blogs. Para o Wordpress4 existe o plugin
Social Metrics que permite uma análise sobre os posts mais curtidos e divulgados. Já o
Blogger 5 fornece ao administrador uma “visão geral” das métricas, indicadores e medição
de audiência que englobam as visualizações por página, hora, dia, semana, mês e total de
visualizações do blog (FAUSTINO, 2013).
Neste sentido, cabe citar a ferramenta ADDThis 6, responsável por mostrar números
relacionados ao engajamento dos visitantes, mostrando como eles estão compartilhando o
conteúdo do blog – seja copiando a URL e compartilhando com outras pessoas, quantos
cliques a URL recebe, qual rede social é mais influente para o um blog, qual o conteúdo
tem maior “efeito viral”. Com esses dados é possível entender o comportamento do usuário
dentro da mídia social, a partir a visualização dos conteúdos que são mais acessados e a
forma como são acessados (EIS, 2011).
O Google disponibiliza um serviço gratuito de análise de audiência de qualquer
página na Internet chamado Google Analytics. A ferramenta é adicionada a um blog através
de um código HTML. O Google Analytics gera relatórios de medição de audiência do blog
e é capaz de identificar além das tradicionais métricas de taxa de exibição, “hit” de uma
página, localização geográfica do visitante, forma com a qual chegou à página seja através
de
links
de
outros
sites,
buscador
e
quais
as
palavras
chaves
utilizadas
(KRISHNAMURTHY; WILLS, 2009). Para o monitoramento de blogs, especificamente,
algumas ferramentas são listadas por Silva (2012) tais como: Radian6, Scup, Trendrr,
Alterian SM2, Seekr, Livebuzz, PostX, SocialMetrix, ScoutLabs.
2.4 Classificações de métricas para monitoramento
Diferente do mundo “não conectado” onde é difícil precisar números e estatísticas
sobre como as pessoas interagem com as marcas que elas consomem, na web isso acontece
de forma muito natural. A Internet é repleta de dados e números disponíveis chamadas de
métricas e se faz necessário utilizar os métodos adequados para o monitoramento adequado
nesse meio. (DINAMIZE, 2011).
Uma pesquisa intitulada “Mídias Sociais nas Empresas” realizada pela Deloitte
Touche Tohmatsu (2010) afirmou que as empresas mensuram as iniciativas de mídias
4
5
6
www.wordpress.com
www.blogger.com
http://www.addthis.com/
3133
sociais através, principalmente, das métricas e indicadores. Silva (2012) sugere que o uso
de métricas voltadas para mídias sociais tem pontos positivos no que tange a persistência e
”buscabilidade” dos dados. As informações são públicas e disponíveis e existem diversos
níveis de mensuração. Contudo, vale ressaltar que esta medição varia de acordo com a
mídia social pesquisada e assim, o profissional tem que lidar com as diversas terminologias
diferentes presentes na rede.
Tuten (2008) destaca que medidas como número de visitantes únicos, páginas vistas,
frequência de visitas, duração de visitas e taxas de cliques são inapropriados para captar as
informações realmente relevantes para campanhas realizadas em mídia social. O aspecto
quantitativo na mensuração de número de pessoas presentes em uma comunidade virtual,
por exemplo, é útil, mas insuficiente para entender a essência da interação que os
consumidores estabeleceram com a marca e o grau de engajamento.
Silva (2012) aponta que o monitoramento de mídias sociais se dá em quatro níveis:
(i) Engajamento, (ii) Alcance, (iii) Adequação e (iv) Influência que são definidos como:
Engajamento: Se refere ao grau de participação e envolvimento de determinado
perfil ou grupo de pessoas em relação a um tema ou assunto;
Alcance: Se refere ao grau efetivo de disseminação de determinado conteúdo ou
grau de disseminação potencial que um perfil possui;
Influência: Se refere ao grau de atenção e mobilização que um determinado perfil
pode gerar em outros;
Adequação: Se refere ao grau de proximidade que determinado conteúdo tem com
as características e valores desejados.
Outra classificação bastante utilizada é apresentada por Albee (2014) que são as
métricas Hard e Soft. As métricas “Hard” são relacionadas às vendas, importando-se
somente com os resultados relativos à receita. Já as métricas Soft são focadas em iniciativas
que impulsionam o engajamento e a interação com o usuário. Segundo a mesma autora,
apesar da dicotomia, a utilização de ambos os tipos são igualmente importantes para uma
organização Não se consegue obter receita sem iniciativas que impulsionem o
comportamento do usuário na rede.
Broek (2011) sugere outra classificação que engloba três tipos de métricas: as (i)
frias, (ii) mornas e (iii) quentes. As métricas frias se referem aos dados quantitativos que
medem o comportamento da audiência em geral tais como alcance, frequência e
visualizações. As métricas mornas são ligadas ao engajamento dos usuários com a mídia
social em questão e avalia comportamentos específicos como análise de sentimento e
3134
avaliação de fatores virais. As métricas quentes avaliam comportamentos relativos a
conversão, ou seja, mede como o negócio é alavancado a partir da mídia social em análise e
para isso pode ser usado avaliações de leads ou mesmo uma avaliação do ecossistema.
Medina (2013) afirma que as métricas frias têm por finalidade a avaliação do valor de
mercado, faturamento, Market Share, lucro e preço. As métricas mornas objetivam a
medição de opiniões, vínculo emocional, relevância, sustentabilidade e percepção.
Levando em conta a tipologia das métricas, Silva (2013) afirma que existem três
grupos de métricas sociais que necessitam de um cuidado maior no monitoramento: (i)
Alcance, (ii) Engajamento, (iii) Influência. As métricas de Alcance e impressões se referem
à audiência real ou potencial de uma mensagem, através das visualizações, seguidores,
membros, entre outros. O Engajamento permite analisar qual parcela da audiência interage
de algum modo com o perfil e o conteúdo. As métricas de influência e relevância permitem
analisar o quanto a marca são percebidas pelos consumidores.
3 METODOLOGIA
Esta pesquisa utilizou de abordagens tanto quantitativas, tanto qualitativas para a sua
realização. A parte quantitativa se refere à avaliação do desempenho do blog e da validação
da regra 90-9-1 proposta por Nielsen (2006). A parte qualitativa da pesquisa refere-se à
avaliação daquilo que o google analytics se propõe a medir de todo o universo identificado
no monitoramento de mídias sociais.
Para tanto, utilizou-se o google analytics para monitorar o blog Ver nas Unhas7
durante o período de Julho de 2013 a Fevereiro de 2014 com o intuito de coletar
informações sobre a audiência da página e avaliar quais métricas foram, de fato, foram
coletadas pela ferramenta. A escolha do blog se deu por duas razões: (i) pelo fato do blog
possuir certa influência no nicho de mercado de beleza e (ii) os administradores do blog
permitiram o monitoramento do mesmo e compartilharam todos os dados coletados.
Esta pesquisa é classificada como uma pesquisa empírica quanto aos meios, sem o
controle ou interferência do pesquisador, e a busca pelas respostas é dada pela observação
do fenômeno. Quanto aos fins esta pesquisa é classificada como uma pesquisa descritiva
pelo objetivo de verificar o fenômeno e inferir relações com o meio a partir da observação
(Michel, 2009).
O método de pesquisa utilizado foi o comparativo dos dados coletados com a teoria
90-9-1 de Nielsen (2006) para a parte quantitativa e das métricas coletadas pelo google
7
HTTP://vernasunhas.blogspot.com
3135
analyitcs com as categorias propostas por Broek (2011) e Silva (2013). A técnica de coleta
de dados foi a observação intensiva direta a partir da própria ferramenta google analytics.
Os passos realizados para esta pesquisa estão listados na FIGURA 1 a seguir:
FIGURA 1 - Fluxo de execução da pesquisa
Fonte: Os Autores (2014)
Inicialmente foi realizada uma pesquisa bibliográfica a respeito do monitoramento
de blogs e de sua investigação na Ciência da Informação. Parte considerável do material
encontrado não são artigos de conferências e periódicos e sim publicações em meios
especializados e livros. Outro fato relevante identificado é que grande parte do corpus
relativo aos artigos acadêmicos são de áreas humanas como Marketing e Administração o
que sugere uma lacuna de pesquisa do tema em Ciência da Informação.
A seguir foi necessário escolher um blog que possuísse certo volume de postagens
para que pudéssemos avaliar dados mais próximos daqueles blogs que possuem grande
reputação. Além disso, todas as ferramentas gratuitas para o monitoramento exigem um
acesso privado, o que foi gentilmente atendido pelos administradores do blog Ver nas
Unhas. A escolha da ferramenta Google Analytics se deu por, além de ser gratuita, possuir
uma comunidade de prática relevante, sendo uma das mais populares para realizar o
monitoramento de blogs.
Uma vez selecionada as ferramentas, foi necessário escolher, as métricas que seriam
utilizadas nesta pesquisa. Foram consideradas aquelas que captaram pelo menos um evento
no blog entre Julho de 2013 e Fevereiro de 2014. Após a escolha das métricas foi iniciado o
processo de coleta de dados que foi realizada pela própria ferramenta.
A análise dos dados foi realizada a partir das informações capturadas pela
ferramenta. Para a parte quantitativa foi coletado o total de visitantes, e no blog foram
3136
coletados os comentários, curtidas e compartilhamentos para outras mídias sociais. Nesta
etapa se fez necessário excluir os “visitantes” referentes a outras ferramentas de
monitoramento tais como Scoop e Social Media Monitor que também monitoravam o blog.
Para a parte qualitativa foi necessário identificar as métricas que tinham coletado no
mínimo uma ocorrência do evento e classifica-la em uma das categorias de Broek (2011) ou
Silva (2013).
4 RESULTADOS
Os dados demográficos do blog nos nove meses de coleta estão apresentados no
QUADRO 1 a seguir.
QUADRO 1 – Dados Demográficos do Blog
Métrica
Quantidade
Número de Visitantes
3183
Número de Visitantes Únicos
401
Ferramentas de Monitoramento
4
Usuários que Comentaram,
Compartilharam ou Curtiram.
32
Total de Lurkers
365
Número de Postagens
88
Tempo médio por Visualização
2 Min. e 15 Seg.
Visitas por Visitante
9,3
Visualizações de Páginas por Visitante
3,2
Visualização de Páginas
9328
Fonte: Os Autores (2014)
Olhando para estes dados podemos perceber que a regra 90-9-1 se aplica a este blog
ficando com a seguinte distribuição: Produtor de Conteúdo (0,2%), Pessoas que Comentam,
Curtem e Compartilham (8%) e Lurkers (91,7%). Vale ressaltar que esse resultado não tem
como objetivo generalizar como verdadeira a regra de Nielsen, mas apenas constatar que a
mesma se mostra verdadeira nos 8 meses em que este blog foi avaliado.
As métricas consideradas por este estudos estão listadas no Quadro 2 a seguir
QUADRO 2 – Métricas identificadas pelo Google Analytics
3137
Métrica
Visualização da
Página
Visualização da
Página por usuários
Visitas
Visitantes Únicos
Página de Entrada
Página de Saída
Duração da Visita
Página Referência
Taxa de Cliques
Próxima Página
Segunda Página
Novos Visitantes
Visitantes Antigos
Visitas por
Visitante
Tempo para
Retorno
Descrição
Classificação
Quantas vezes a página foi visualizada
Métrica Fria
Quantos usuários visualizaram uma página
Métrica Fria
Quantas visitas uma página obteve. Uma visita é
definida por um intervalo de 3 0 minutos, se um
mesmo usuário visualiza a mesma página mais de
uma vez em 30 minutos essa métrica só será
incrementada uma vez.
Quantos visitantes o site obteve, excluindo os
retornos (visitantes repetidos).
Qual página do blog os usuários costumam acessar
primeira (chegada ao blog)
Qual página do blog os usuários costumam acessar
por último (saída no blog)
Quanto tempo dura a visita
Qual página o usuário estava imediatamente antes de
chegar ao blog (quem indicou o blog)
Quantos cliques, em um determinado hiperlink,
foram dados por um usuário.
Qual a página o usuário vai imediatamente após sair
do blog.
Quais páginas o usuário visitou dentro do blog
Quantos visitantes são novos no blog
Quantos visitantes retornaram ao blog
Vistas por Visitante
Quanto tempo um visitante demora a retornar
Conversão
Páginas visitadas a
partir de buscas
Quantas vezes uma ação foi realizada por um
visitante
Quantidade de Saídas do Blog (a partir de uma
determinada página) pela quantidade de vezes em
que ela foi visualizada.
Porcentagem de Visitas que só visualizaram uma
página.
Quantas visualizações de uma página foram
realizadas em uma visita.
Quanto tempo uma visualização de uma página
durou
Taxa de usuários que se tornam assíduos no blog
Quantas vezes uma página foi visitada a partir de
uma busca interna no blog.
Buscas usadas
Textos de buscas utilizados
Categorias de
Busca
Quais categorias de busca foram utilizadas
Buscas Únicas
Quantas dessas buscas foram únicas
Frequência
Taxa de Saída de
Página
Taxa de Rejeição
Visualização por
Visita
Tempo na Página
Métrica Fria
Métrica Fria
Métrica Fria
Métrica Fria
Métrica Fria
Alcance
Métrica Fria
Influência/Alcance
Métrica Fria
Métrica Fria
Métrica Fria
Engajamento/Métrica
Morna
Engajamento
Engajamento
Métrica Fria
Métrica Fria
Métrica Fria
Engajamento
Métrica Quente
Métrica Morna/
Engajamento
Métrica Morna/
Engajamento
Métrica Morna/
Engajamento
Fonte: Os Autores (2014)
Existem outras métricas que não puderam ser avaliadas neste blog por se tratar de
indicadores relativos a comércio eletrônico. Como o blog não promove vendas ou mesmo
3138
campanhas, não foi gerado eventos que acionassem essas métricas. Outras métricas
referentes à estrutura do blog, como por exemplo, quantas páginas têm um blog, ou mesmo
dados demográficos do usuário tais como localidade, tipo de navegador e etc., não se
encaixaram em nenhuma das categorias selecionadas e foram desconsideradas.
5 CONSIDERAÇÕES FINAIS
A Internet vem recebendo uma crescente atenção por parte das empresas por se
apresentar como mais um veículo de comunicação de massa, onde novas formas de
divulgação se mostram necessárias devido a como este espaço é percebido pelos usuários.
Neste contexto, as mídias sociais surgem como espaços de interação onde pessoas revelam,
mesmo que de forma fragmentada, suas necessidades e anseios.
Toda e qualquer ação realizada na Internet pode ser registrada e transformada em
informação. Que, devidamente trabalhada, pode desvendar o comportamento e preferências
dos usuários e assim, auxiliar as empresas, a identificar meios para se aproximar de
potenciais clientes. Esse novo posicionamento, por parte das organizações, extrapola o
conceito de relacionamento com o cliente e passa a modificar toda a estratégia de marketing
e vendas exigindo uma gestão da informação também desses canais.
O trabalho de web analytics, e especialmente o monitoramento de mídias sociais,
está diretamente ligado ao entendimento das organizações relativas à sua presença online.
Para tanto, se perfaz a necessidade de controlar também, em um fluxo de informação
coerente, as informações da audiência e da reputação das empresas na Internet.
Ao avaliar, de forma exploratória, o blog ver nas unhas utilizando a ferramenta
google analytics, foi possível perceber, primeiramente, que a teoria de Nielsen, que sugere
que cerca de 90% dos visitantes de uma página são “invisíveis”, também era um fato real
naquele espaço. Muito mais do que certificar do fato, este número revela a importância de
desvendar o comportamento de um visitante que praticamente não interage com o blog.
Esse fato reforça a necessidade do monitoramento do blog enquanto espaço de
interações com esses usuários que naquele momento se mostram invisíveis, mas que podem
ser influenciados pelo conteúdo do blog, ou até mesmo se tornarem consumidores daqueles
produtos e serviços.
Nisso a ferramenta google analytics se mostra deficiente, uma vez que as métricas
apresentadas são meramente quantitativas, desprovidas de significados e principalmente
sem nenhuma conotação de contexto. O monitoramento de mídias sociais hoje está voltado
para buscar cinco “tipos” de informação entre a interação com os usuários: (i) Informações
quantitativas relativas à interação do usuário com a página (métricas frias), (ii)
3139
Engajamento dos usuários com a marca, (iii) Influência da marca entre os usuários, (iv)
alcance do canal de comunicação e (v) Capacidade de convencer os usuários a consumir a
marca (conversão). O google analytics auxilia apenas na obtenção das métricas
quantitativas não devendo assim ser usado como única fonte de informação sobre a
interação de usuários e canais online.
Não há dúvidas que as métricas frias sejam relevantes, pois elas indicam cenários,
tendências e anomalias que são identificadas e auxiliam organizações a modificar as suas
estratégias. No entanto, ainda há uma visão, de certa forma enganosa, em que se acredita
que apenas as métricas quantitativas são capazes de demonstrar fielmente a realidade da
popularidade e consumo de uma página, sendo assim, creem que quanto maior a quantidade
de números (visualização de páginas, visitantes únicos), mais bem colocada está a presença
online da página analisada. Isso pode ser visto em artigos científicos onde bibliotecas que
avaliam sua presença online baseada apenas no google analytics e diversos artigos da
indústria apontando casos de sucesso na utilização da Internet.
Trabalhar com monitoramento de mídias sociais, não se resume apenas em utilizar
uma ferramenta de gerenciamento de tráfego para saber a quantidade de visitas e usuários
únicos que entram em uma página, mas sim procurar formas de efetuar análises
comparativas, qualificar o tráfego no ponto de vista da conversão e métricas quentes,
entender os principais caminhos utilizados pelos usuários dentro de seus sites/blogs e
principalmente saber o propósito pelo qual sua instituição está na se posicionando na
Internet.
O monitoramento de blogs não é capaz, sozinho, de apontar o posicionamento
online de uma empresa ou marca. Entender este posicionamento se torna importante para
uma companhia por que uma parte considerável de seu mercado consumidor está emitindo
opiniões espontâneas sobre a marca/produto/serviço que podem influenciar outros
potenciais consumidores e dirigir ações de marketing neste nicho pode ser mais efetivo do
que ações realizadas em outros meios de comunicação. Então este monitoramento de blogs
não consegue capturar o sentimento dos usuários e, em muitos casos, o quanto as suas
opiniões estão circulando na Internet. Por isso, outras técnicas/ferramentas que são capazes
de analisar as métricas quentes e mornas devem ser utilizadas em conjunto do
monitoramento do blog.
Este nicho de mercado abre mais uma porta para profissionais da informação, que
necessita identificar quais informações são necessárias para entender o status atual de uma
empresa na Internet, identificar as fontes de informação que capturem estes dados, elaborar
3140
meios para transformar essa informação desestruturada e distribuída em conhecimento com
detalhes o suficiente para o apoio a tomada de decisão, decidir políticas e fluxos de
informação do relacionamento online com o cliente e tantas outras competências que devem
fazer parte da formação de profissionais da informação.
5.1 Trabalhos futuros
Esta pesquisa, por se tratar de uma pesquisa ainda embrionária, possui um conjunto
de lacunas que podem ser elucidadas a partir de pesquisas futuras. O primeiro trabalho
futuro é utilizar outras ferramentas que coletem informações referentes às outras atividades
relativas ao monitoramento de mídias sociais, e a partir disso, sugerir um portfólio de
ferramentas que supra todas as necessidades informacionais relativas ao monitoramento de
mídias sociais.
Outro trabalho futuro sugerido é elaboração de referências para relacionar os dados
coletados para finalidades diferentes no monitoramento. Por exemplo, podemos descobrir
que por uma análise de sentimento (engajamento) os usuários estão insatisfeitos com a
marca e com isso o número de visitas cai (métrica fria), ou por causa de um evento negativo
(engajamento) a marca atinja usuários que não tinham acesso à mesma (alcance). Então
relacionar estas métricas se mostra como outro desafio da área.
Outro trabalho futuro é identificar quais competências o profissional da informação
deve possuir para trabalhar com este monitoramento de mídias sociais uma vez que este
mercado é amplamente ocupado por profissionais de marketing e comunicação.
Um último trabalho futuro sugerido é mensurar o quanto este tipo de monitoramento
traz de vantagem competitiva para empresas. É uma avaliação do retorno de investimento
não das ações online em si, mas sim, de conhecer estas informações e avaliar o quão
benéfico é interagir na internet com potenciais consumidores.
REFERÊNCIAS
ABERDEEN GROUP. Web Analytics: Translating Clicks into Business, Aberdeen Group,
Boston, MA. 2000.
ALBEE, A. Marketing Metrics: The Hard and The Soft. Disponível em:
<http://socialmediatoday.com/ardathalbee/556522/marketing-metrics-hard-and-soft>.
Acesso em: 03 jan. 2014.
ALEXANDER, B. Web 2.0: A new wave of innovation for teaching and learning?
Educause Review, California, EUA. v. 41, n. 2, p. 32–44. 2006.
BARROS, M. A. Blogs e bibliotecários. Encontro Nacional dos Estudantes de
Biblioteconomia, Documentação, Ciência e Gestão da informação, 27., 2004, Recife.
Anais... Recife: [s.n], 2004.
3141
BROEK, M. D. Discussion: Is Return on Influence the new ROI. 2011. Disponível em:
<http://www.theconversationmanager.com/2011/09/30/is-return-on-influence-the-newroi/>. Acesso em: 3 jan. 2014.
BRUNS, A. Blogs, Wikipedia, Second Life, and beyond: From production to produsage.
Nova York: Peter Lang, 2008. 418 p.
CARVALHO, N. Dados, Informação e Inteligência Competitiva. Em: SILVA. T. Para
entender o Monitoramento de Mídias Sociais. 164 p. 2012.
CIPRIANI, F. Blog Corporativo. 2006. Disponível em:
http://wiki.blogcorporativo.net/index.php/Listas/UniversityBlogs. Acesso em: 26 nov.
2013.
DINAMIZE. Métricas para Mídias Sociais: Um Mar de Possibilidades, 2011. Disponível
em: http://www.dinamize.com/site/ebooks/ebookmidiassociais.pdf Acesso em: 26 abr.
2014.
E-LIFE. Blogueiros e Orkutianos: O perfil da Blogosfera brasileira. 2013b. Disponível em:
<http://www.elife.com.br/cadastropapers/?paper=blogueiros-e-orkutianos&id=1201>.
Acesso em: 27 nov. 2013.
E-LIFE. Técnicas de Coleta e Classificação em Redes Sociais. 2013. Disponível em:
<http://www.elife.com.br/cadastropapers/?paper=tecnicas-de-coleta-e-classificacao-emredes-sociais&id=2577>. Acesso em: 28 nov. 2013.
EIS, D. AddThis: analisando as mídias sociais do seu site. 2011. Disponível em:
<http://tableless.com.br/addthis-analisando-as-midias-sociais-do-seu-site/>. Acesso em: 28
nov. 2013.
FAUSTINO, Paulo. Analise o impacto das mídias sociais no seu site WordPress. 2013.
Disponível em: <http://imasters.com.br/artigo/21551/wordpress/analise-o-impacto-dasmidias-sociais-no-seu-site-wordpress/#section-topics>. Acesso em: 28 nov. 2013.
HINERASKY, D. A. O fenômeno dos blogs street-style: do flâneur ao “star blogger”.
2012. 289 p. Tese (Doutorado em Comunicação Social) - Pontifícia Universidade Católica
do Rio Grande do Sul – PUC/RS, Porto Alegre, 2012.
HONSCHA, G. L. A profissionalização dos blogs brasileiros: um estudo sobre as
dinâmicas promocionais na blogosfera. 2009. 145 p. Dissertação (Mestrado em
Biblioteconomia) - Universidade Federal do Rio Grande do Sul. 2009.
INAN, H. Measuring the success of your Website. New Jersey. Longman Publishing
Group, 2002
JARDIM, A. D. Aplicações de Modelos Semânticos em Redes Sociais. 2010. 106 p.
Dissertação (Mestrado em Ciências da Computação) – Universidade Católica de Pelotas
UCPEL. 2010.
KRISHNAMURTHY, B.; WILLS, C. E. On the leakage of personally identifiable
information via online social networks. In: Proceedings of the 2nd ACM workshop on
Online social networks. ACM, 2009. p. 7-12.
3142
LAINE, M.; FRUHWIRTH, C. Monitoring Social Media: Tools, Characteristics and
Implications. In: TYRVÄINEN, P. ; JANSEN, S.; CUSUMANO, M.A. (Eds.): Lecture
Notes in Business Information Processing. v. 51, p. 193-198. 2010.
LEMOS, A. A Cultura da Mobilidade. Revista FAMECOS, Porto Alegre. n. 40, dez.,
2009.
MALINI, F. Por uma Genealogia da Blogosfera: considerações históricas (1997-2001).
GT – Cibercultura e Tecnologias da Comunicação, do Inovcom, XIII Congresso de
Ciências da Comunicação na Região Sudeste. Anais... São Paulo, 2008.
MEDIA, Monitoring Social. Social Media monitoring and the Rise of Social Customer
Service. 2013. Disponível em: <http://www.monitoring-social-media.com/social-mediamonitoring-and-the-rise-of-social-customer-service>. Acesso em: 27 nov. 2013.
MEDINA, B. A reinvenção dos meios e dos conteúdos. 2013. Disponível em:
<http://pt.slideshare.net/brauliomedina/a-reinveno-dos-meios-e-dos-contedos>. Acesso em:
03 jan. 2014.
MICHEL, M. H. Metodologia e Pesquisa Científica em Ciências Sociais: um guia prático
para acompanhamento da disciplina e elaboração de trabalhos monográficos. São Paulo:
Atlas, 2009.
NANNO, T.; SUZUKI, Y.; FUJIKI, T.; OKUMURA, M. Automatic Collection and
Monitoring of Japanese Weblogs. Transactions of the Japanese Society for Artificial
Intelligence, v. 19, n. 6, p. 511-520. 2004.
NIELSEN, J. Participation inequality: Encouraging more users to contribute. 2006.
Disponível em: http://www.nngroup.com/articles/participation-inequality/. Acesso em: 26
mai. 2014.
ORDUNÃ, O. Blogs: revolucionando os meios de comunicação. São Paulo: Thomson
Learning, 2007.
PIKAS, C. K. Blog searching for competitive intelligence, brand image, and reputation
management. Online, New York. v. 29, n. 4, p. 16-21, jul./ago. 2005.
SCHONS, C. H. O volume de informações na internet e sua desorganização: reflexões e
perspectivas. Informação e Informação, Londrina, v.12, n.1, jan./jun.2007.
SCOBLE, R.; ISRAEL, S. Naked conversations: how blogs are changing the way
businesses talk with customers. New Jersey. John Wiley & Sons, 2006. 246 p.
SILVA, T. Monitoramento de Marcas e Conversações: alguns pontos para discussão. In:
DOURADO, D.; SILVA, T.; CERQUEIRA, R.; AYRES, M. (Orgs.). #MidiasSociais:
Perspectivas, Tendências e Reflexões. Florianópolis: Bookess, 2010.
SILVA, T. Monitoramento de Mídias Sociais. In: SILVA, T. Para entender o
Monitoramento de Mídias Sociais. 2012. p. 41.
SILVA, T. Métricas e monitoramento de mídias sociais. 2013. Disponível em:
<http://pt.slideshare.net/tarushijio/monitoramento-de-mdias-sociais-imerso-digital>. Acesso
em: 01 jan. 2014.
3143
SOCIALMEDIA Monitor. Por que monitorar as Redes Sociais. 2013. Disponível em:
<http://www.socialmediamonitor.com.br/por-que-monitorar-redes-sociais>. Acesso em: 27
nov. 2013.
SPYER, J. Conectado: o que a internet fez com você e o que você pode fazer com ela. Rio
de Janeiro: Jorge Zahar Ed, 2007.
STATE OF BLOGOSPHERE. State of Blogosphere: Introduction and Methodology. 2011.
Disponível em: <http://technorati.com/social-media/article/state-of-theblogosphere2011introduction/>. Acesso em: 06 jun. 2014.
TOHMATSU, Deloitte Touche. Mídias sociais nas empresas. 2010. Disponível em:
<http://www.deloitte.com/assets/DcomBrazil/LocalAssets/Documents/Estudosepesquisas/A
presentacao_MidiasSociais.pdf>. Acesso em: 25 jan. 2014.
TOFFLER, A. A Terceira Onda. 4. ed. Rio de Janeiro, RJ : Record, 1980.
TUTEN, T. Advertising 2.0: social media marketing in a web 2.0 World. Westport,
Connecticut: Praeger, 2008.
WAISBERG, D.; KAUSHIK, A. Web Analytics 2.0: empowering customer centricity. The
original Search Engine Marketing Journal, v. 2, n. 1, p. 5-11, 2009.
WELLMAN, B. HAYTHORNTHWAITE, C. The Internet in everyday life. Malden,
Wiley-Blackwell, 2008. 588 p.
3144
BASES METODOLÓGICAS PARA ARQUITETURA DA INFORMAÇÃO
PERVASIVA8
METHODOLOGICAL BASES FOR PERVASIVE INFORMATION ARCHITECTURE
Henry Poncio Cruz de Oliveira
Silvana Aparecida Borsetti Gregorio Vidotti
Virginia Bentes Pinto
Resumo: Atualmente a informação e os produtos tecnológicos ocupam lugar fundamental
nas relações humanas e sociais. Há um cenário que resulta dos avanços ocorridos na técnica
e na tecnologia permitindo uma larga produção de artefatos tecnológicos cada vez mais
integrados ao cotidiano das pessoas. Emerge um movimento de integração de ambientes
físicos aos ambientes de informação digital, de construção de ambientes tecnológicos
híbridos e de delineamento de experiências cross-channel, potencializando o debate sobre a
Arquitetura da Informação Pervasiva. Este estudo objetiva apresentar uma base
metodológica para a Arquitetura da Informação Pervasiva, como contributo para a pesquisa
e projeto de ecologias informacionais complexas. A pesquisa, bibliográfica e metodológica,
utiliza abordagem qualitativa de análise e se apoia epistemologicamente na fenomenologia
e no sistemismo. Apresenta como resultado uma metodologia iterativa para Arquitetura da
Informação Pervasiva, baseada em sete etapas: fenomenologia do contexto, mapeamento de
essências, relacionamentos complexos, definição da ecologia, padrões da ecologia,
implementação e avaliação. A base metodológica apresentada é generalista e contextualista,
podendo ser adaptada para ser aplicada em contextos específicos.
Palavras-chave: Arquitetura da Informação. Arquitetura da Informação Pervasiva.
Metodologia. Ecologias informacionais complexas. Informação e Tecnologia.
Abstract: Nowadays, information and technological artifacts occupy key place in human
and social relations. There is one scenario that results from advances in the technique and
technology, enabling a wide production of technological artifacts increasingly integrated
into everyday life. A movement of integration of physical environments to digital
information environments, construction of hybrid technology environments and design of
cross-channel experiences emerges, stimulating the debate on Pervasive Information
Architecture. This study objective is to present a methodological foundation for Pervasive
Information Architecture as a contribution to the research and design of complex
informational ecologies. The research can be classified as literature and methodological,
uses qualitative approach of analysis and is epistemologically based on phenomenology and
systemism. Presents as result an iterative methodology for Pervasive Information
Architecture, based in seven steps: phenomenology of context, mapping essences, complex
relationships, ecology definition, ecology patterns, implementation and evaluation. The
methodology presented is general and contextual, can be adapted and applied in specific
contexts.
Keywords: Information Architecture. Pervasive Information Architecture. Metodology.
Complex informational ecologies. Technology and Information.
8
Financiamentos da pesquisa: CAPES DINTER; CNPq PQ – Processo: 308443/2010-1; CNPq
CHSSA – Processo: 407149/2012-0; CNPq Universal – Processo: 486147/2011-8.
3145
1 INTRODUÇÃO
As contínuas mudanças tecnológicas intensificadas após a revolução industrial têm
modificado os setores da sociedade e construído um panorama em que a informação e os
artefatos tecnológicos ocupam lugar fundamental nas relações humanas e sociais. Trata-se
de um cenário que resulta dos avanços ocorridos na técnica e na tecnologia, permitindo uma
larga produção de artefatos tecnológicos cada vez mais integrados ao cotidiano das pessoas.
A técnica, para Agazzi (1997), diz respeito a um conjunto de conhecimentos
eficazes que o homem tem expandido ao longo dos séculos para melhorar seu modo de
vida, sendo tão antiga quanto a própria humanidade. Segundo Oliveira (2014), a tecnologia
diz respeito às construções teóricas realizadas sobre a técnica enquanto qualidade do ato
produtivo, é ciência e ao mesmo tempo ideologia da técnica, atua sobre desdobramentos
maquínicos na sociedade, “é um fenômeno que engloba a técnica, os sujeitos e os produtos
tecnológicos como componentes essenciais” (OLIVEIRA, 2014, p. 54).
Os avanços na técnica e na tecnologia têm gerado movimento que busca integrar os
ambientes físicos aos ambientes de informação digital, por meio da criação de camadas
informacionais que os interseciona e facilita a experiência de acesso e uso destes ambientes.
Há ainda os ambientes híbridos que per se, coligam elementos físicos e digitais estrutural e
funcionalmente. Nesta linha, Oliveira (2014) sinaliza a intensificação de um fenômeno
ecológico em que uma mesma informação necessita ser acessada em um ambiente físico,
em um site web, por meio de aplicativo para tablets ou aplicativo para smartphone, numa
televisão digital, ou em outros artefatos tecnológicos. Este fenômeno demanda reflexões
arquiteturais que consideram a organização, a representação, o armazenamento e a
recuperação da informação em ambientes diferentes e integrados ecologicamente
(OLIVEIRA, 2014).
Porém, nos ambientes físicos, nos ambientes de informação digital ou nos ambientes
híbridos, nem sempre é possível recuperar a informação que se deseja ou realizar uma
atividade pretendida em função de problemas na Arquitetura da Informação (AI), fato que
pode comprometer a experiência de interação. Os problemas supracitados têm sido tratados
nos últimos 40 anos pela Arquitetura da Informação, usada como um contributo teórico e
prático para o melhoramento do acesso e do uso da informação nos diversos tipos de
ambientes. Atualmente, as reflexões teóricas e práticas concernentes à Arquitetura da
Informação têm se deslocado para as experiências informacionais pervasivas em ambientes
físicos, digitais ou híbridos. Trata-se do que Resmini e Rosati (2011) designam de
Arquitetura da Informação Pervasiva (AIP).
3146
Pioneiros no debate sobre a Arquitetura da Informação Pervasiva e no projeto de
experiências cross-channel, Andrea Resmini e Luca Rosati argumentam que os problemas
informacionais e tecnológicos que temos hoje precisam ser tratados por outra forma de se
pensar e de se fazer Arquitetura da Informação (RESMINI; ROSATI, 2011).
Oliveira (2014) assevera que a Arquitetura da Informação Pervasiva é uma temática
fronteiriça e emergente, por isso necessita de aprofundamentos teóricos e metodológicos,
mas reconhece a obra Pervasive information architecture: designing cross-channel user
experiences, publicada por Resmini e Rosati (2011), como indispensável no debate teórico,
no delineamento de práticas, de metodologias e de procedimentos em Arquitetura da
Informação Pervasiva. Porém adverte que no livro de Resmini e Rosati (2011) é
marcadamente pragmático e não aprofunda a Arquitetura da Informação Pervasiva nos
planos conceitual e metodológico.
Considera-se a Arquitetura da Informação Pervasiva um objeto/fenômeno de
investigação de caráter social, histórico, marcado ideologicamente pela técnica e pela
tecnologia. Baseando-se nas ideias científicas da pós-modernidade, o presente texto é
resultado da pesquisa que teve com objetivo: Apresentar uma base metodológica para
Arquitetura da Informação Pervasiva.
2 ARQUITETURA DA INFORMAÇÃO PERVASIVA
Tangenciando a cientificidade da Arquitetura da Informação, Macedo (2005, p. 143)
assevera que a Arquitetura da Informação tem características
[...] de uma disciplina que se estabelece no contexto da ciência pósmoderna. A ciência moderna pressupunha a necessidade de existência de
uniformidades básicas e regularidades empíricas acerca do fenômeno que
engloba o objeto de estudo de uma área, bem como a utilização de um
método científico rigoroso para investigá-lo. Na pós-modernidade, como
foi visto, esses pressupostos têm sido repensados. Os valores de
universalidade e certeza têm dado lugar a pluralidade e a complexidade. E
é nessa conjuntura que a área de Arquitetura da Informação se estabelece.
Portanto, sua natureza é inerentemente interdisciplinar, e seus métodos,
modelos e teorias são derivados de outras disciplinas.
Tratando a AI na perspectiva da pós-modernidade, Macedo (2005) destaca as
características da interdisciplinaridade, da complexidade e do diálogo com métodos e
teorias de outras disciplinas. Fundamentando a AI como disciplina científica Albuquerque
(2010, p. 133) argumenta que
Como Disciplina, Arquitetura da Informação é um programa de
investigação epistemológica da realidade que busca identificar e
relacionar, no mínimo e necessariamente, quatro dimensões no problema
tratado: Forma, Contexto, Manifestação e Significado [...].
3147
Na contribuição de Albuquerque há um reconhecimento do caráter epistemológico
da Arquitetura da Informação. O autor ainda argumenta que a AI pode adotar duas
abordagens: orientada ao objeto, quando o propósito é examinar o fenômeno; ou orientada
ao produto, quando o objetivo é criar/construir um produto que atue sobre o fenômeno.
Expandindo a reflexão epistêmica sobre a Arquitetura da Informação Albuquerque e LimaMarques (2011, p. 68) afirmam que
Como Disciplina, o termo Arquitetura da Informação refere-se a um
esforço sistemático de identificação de padrões e criação de metodologias
para a definição de espaços de informação, cujo propósito é a
representação e manipulação de informações; bem como a criação de
relacionamentos entre entidades linguísticas para a definição desses
espaços de informação.
Os argumentos de Albuquerque e Lima-Marques (2011) sobre a AI, coadunam com
o objetivo desta pesquisa, visto que a disciplina AI se dedica a identificação de padrões e
criação de metodologias utilizáveis no projeto e na pesquisa em ambientes de informação.
Vidotti, Cusin e Corradi (2008) defendem que
Arquitetura da Informação enfoca a organização de conteúdos
informacionais e as formas de armazenamento e preservação (sistemas de
organização), representação, descrição e classificação (sistema de
rotulagem, metadados, tesauro e vocabulário controlado), recuperação
(sistema de busca), objetivando a criação de um sistema de interação
(sistema de navegação) no qual o usuário deve interagir facilmente
(usabilidade) com autonomia no acesso e uso do conteúdo (acessibilidade)
no ambiente hipermídia informacional digital. (VIDOTTI; CUSIN;
CORRADI, 2008, p.182).
A Arquitetura da Informação tem se constituído historicamente como uma práxis
profissional e como um setor de estudos preocupado na solução de problemas arrolados ao
acesso e uso do vasto quantitativo de informações (RESMINI; ROSATI, 2011). Os autores
León (2008), Resmini e Rosati (2011) e Oliveira (2014), além de reconhecer a característica
interdisciplinar da AI, identificam visões ou abordagens regulares que orientaram as
pesquisas científicas e as práticas em AI desde seu estabelecimento. Oliveira (2014, p. 77)
adverte que “a ação teórica e prática da Arquitetura da Informação não se cristalizou em
uma perspectiva única, não se fundamentou na influência de apenas um ramo disciplinar e
epistemológico”. Dialogando com León (2008) e Resmini e Rosati (2011), Oliveira destaca
que no transcurso da AI houve contribuições importantes da Arquitetura e Design de
Informação, dos Sistemas de Informação, da Ciência da Informação e, mais recentemente,
da Computação Ubíqua e do Design de Serviço, conforme apresentado na FIGURA 1.
3148
FIGURA 1 – Abordagens da Arquitetura da Informação
Fonte: Oliveira (2014, p. 83)
A FIGURA 1 indica que existem processos de estabelecimento, de manutenção e de
ruptura de abordagens que norteiam as atividades científicas e práticas na AI (OLIVEIRA,
2014). León (2008), Resmini e Rosati (2011) e Oliveira (2014) perfilham a preponderância
de campos disciplinares como Arquitetura, Design, Ciência da Informação, Sistemas de
Informação, Computação Ubíqua e Design de Serviços na história da AI, mas a
interdisciplinaridade fez a AI dialogar com setores disciplinares como a Ergonomia, a
Usabilidade, a Psicologia Organizacional, a Ciência da Computação, as Ciências
Cognitivas, o Desenho Industrial, o Design Gráfico, a Sociologia, a Antropologia, entre
outras (MACEDO, 2005; DILLON, 2003).
Oliveira (2014, p. 83) reconhece que Arquitetura, Design, Ciência da Informação,
Sistemas de Informação, Computação Ubíqua e Design de Serviços “quebram as fronteiras
disciplinares e trazem a AI uma fluidez identitária” típica na pós-modernidade.
A abordagem arquitetural, fortemente vinculada aos primeiros anos da AI, foi
influenciada pela Arquitetura e Design, sendo Wurman (1996) o representante desta
abordagem. A abordagem Sistêmica firmou-se por meio da Teoria Geral dos Sistemas e das
demandas de criação de sistemas de informação para os contextos organizacionais.
A Abordagem Informacional tem como representante Morville e Rosenfeld (2006)
que se esforçaram para impregnar na AI os estudos clássicos da Biblioteconomia e da
Ciência da Informação, esta abordagem tem sido largamente aplicada em ambientes de
informação digital da web até os dias atuais. Em diálogo teórico com Resmini e Rosati
(2011), Oliveira (2014) nomeou a abordagem mais recente da AI de Pervasiva, em função
3149
das demandas informacionais e tecnológicas que articulam de forma integrada distintos
espaços, ambientes, tecnologias e pessoas.
O autor supracitado esclarece que
A percepção de novos e desafiadores problemas relacionados à
Arquitetura da Informação suscitou uma revisão do que já estava posto
sobre a AI. Nesse contexto, uma nova forma de enxergar a AI tem sido
cultivada de forma significativa pelos italianos Andrea Resmini e Luca
Rosati, com destaque para livro Pervasive information architecture:
designing cross-channel user experiences, publicado pelos referidos
autores em 2011 (OLIVEIRA, 2014, p. 108).
O QUADRO 1, elaborado com base nas contribuições de Resmini e Rosati (2011),
sinaliza uma série de mudanças que potencializaram o surgimento da Arquitetura da
Informação Pervasiva.
QUADRO1 – Fatos relacionados à emergência da Arquitetura da Informação Pervasiva
Arquiteturas da
informação tornamse ecossistemas
Os usuários se
tornam mediadores
Quando diferentes mídias e contextos estão entrelaçados com força,
nenhum artefato pode ficar como uma entidade isolada. Cada artefato
torna-se um elemento de um ecossistema maior. Todos esses artefatos têm
vários links ou relacionamentos uns com os outros e têm de ser concebidos
como parte de um processo único e contínuo de experiência do usuário.
Os usuários são mediadores nos ecossistemas e produzem ativamente
novos conteúdos ou corrigem o conteúdo existente. A tradicional distinção
entre autores e leitores, ou produtores e consumidores, torna-se sutil, a
ponto de ser inútil e vazia de significado.
Estático se torna
dinâmico
O papel ativo desempenhado pelos usuários/mediadores torna os conteúdos
eternamente inacabados, em constante mudança, perpetuamente abertos ao
aperfeiçoamento e manipulação.
Dinâmico se torna
híbrido
Essas novas arquiteturas abraçam diferentes domínios (analógicos, digitais
e híbridos), diferentes tipos de entidades (dados, itens físicos e pessoas) e
os diferentes meios de comunicação. Todas as experiências são
experiências bridge ou cross-media, abrangendo diferentes ambientes.
Horizontal prevalece
sobre vertical
Em arquiteturas abertas e em constante mudança, os modelos hierárquicos
(top down) são difíceis de manter e de dar suporte, como os usuários
empurram as arquiteturas em direção à espontaneidade, às estruturas
efêmeras ou temporárias de significado e à mudança constante.
Design de produto se
torna o design da
experiência
Quando cada artefato, seja o conteúdo, produto ou serviço, é parte de um
ecossistema maior, o foco muda de como criar itens únicos para como criar
experiências de processo.
Experiências se
tornam experiências
cross-media
Múltiplas experiências em ponte conectadas a mídias, a ambientes e
ecologia ubíqua, um processo único onde todas as partes contribuem para
uma experiência de usuário global e sem emendas.
Fonte: Adaptado de Resmini e Rosati (2011, p. 52 a 54, tradução nossa)
As mudanças supracitadas, são vetores contribuintes para o surgimento da AIP,
concebida por Oliveira (2014, p. 166) como sendo [...] uma abordagem teórico-prática da
3150
disciplina científica pós-moderna Arquitetura da Informação, trata da pesquisa científica e
do projeto de ecologias informacionais complexas. Busca manter o senso de localização do
usuário na ecologia e o uso de espaços, ambientes e tecnologias de forma convergente e
consistente. Promove a adaptação da ecologia à usuários e aos novos contextos, sugerindo
conexões no interior da ecologia e com outras ecologias. Facilita a interação com conjuntos
de dados e informações ao considerar os padrões interoperáveis, a acessibilidade, a
usabilidade, as qualidades semânticas e a encontrabilidade da informação, portanto deve
buscar bases na Ciência da Informação.
Adotamos o conceito de Arquitetura da Informação Pervasiva elaborado por
Oliveira (2014) em função de sua amplitude e de suas bases na Ciência da Informação, tal
elaboração abrange a) o status científico da AIP quando classifica-a como abordagem
teórico-prática da disciplina científica pós-moderna Arquitetura da Informação; b) a
definição do objeto da AIP, no caso as ecologias informacionais complexas; b) as ações que
de pesquisa e projeto que a AIP realiza sobre seu objeto; c) o que a AIP objetiva e d) como
a AIP se materializa em uma pesquisa ou projeto ecológico.
3 ASPECTOS METODOLÓGICOS DA PESQUISA
A pesquisa científica é, na compreensão de Demo (1995, p. 34), uma atividade do
cotidiano, “uma atitude, um questionamento sistemático crítico e criativo, mais a
intervenção competente na realidade, ou o diálogo crítico permanente com a realidade em
sentido teórico e prático”. No caso desta pesquisa, a atitude crítica e questionamento
sistemático foi realizada sobre a Arquitetura da Informação Pervasiva, no sentido de
produzir uma intervenção que resulte numa base metodológica utilizável por Arquitetos da
Informação e pesquisadores em Ciência da Informação.
Tendo como base o objetivo de apresentar um aparato metodológico para a AIP, a
presente investigação pode ser classificada como uma pesquisa metodológica. Para Moresi
(2003, p. 9), a “pesquisa metodológica é o estudo que se refere à elaboração de
instrumentos de captação ou de manipulação da realidade. Está, portanto, associada a
caminhos, formas, maneiras, procedimentos para atingir determinado fim”.
Como se trata de uma pesquisa metodológica, se faz necessário explicitar a
compreensão de metodologia que norteou esta pesquisa. O termo metodologia é concebido
entre os metodólogos com significados variados. Diversos são os termos empregados nas
pesquisas para se referir ao processo de “preocupação instrumental” e das “formas de se
fazer Ciência”. Dependendo do tipo de pesquisa e da ciência envolvida, podem ser
3151
utilizados os termos metodologia, método, materiais e métodos, procedimentos, aspectos
procedimentais, entre outros.
Recorrendo as raízes etimológicas, a metodologia diz respeito “ao estudo dos
caminhos, dos meios de uma teoria” (BAQUERO, 2009, p, 22). A contribuição de Gomes
(1998) é significativa para a presente pesquisa, pois este autor compreende a metodologia
como sendo o estudo analítico e crítico dos métodos de investigação e de prova, ou ainda
como sendo a descrição, análise e avaliação crítica dos métodos científicos.
Lopes (2005, p. 93) diferencia método e metodologia a partir das expressões
metodologia da pesquisa e metodologia na pesquisa: metodologia da pesquisa indica “a
investigação ou teorização prática da pesquisa científica”, por outro lado, a metodologia na
pesquisa indica “o trabalho com os métodos empregados”. De forma complementar,
Baquero (2009) assevera que a metodologia trata da lógica interna da investigação, já os
métodos constituem uma série de passos que o investigador segue no processo de
construção de um conhecimento sobre um determinado objeto.
A presente pesquisa se faz via metodologia da e na pesquisa. Enquanto pesquisa
executada no âmbito da Ciência da Informação, recorre ao trabalho com os métodos que
devem ser empregados para atingir o objetivo da investigação, ou seja, metodologia da
pesquisa. Mas também trata da metodologia na pesquisa, na medida que visa produzir um
conhecimento metodológico aplicável aos processos de Arquitetura da Informação
Pervasiva, considerando aspectos epistemológicos.
Retornando-se aos aspectos metodológicos adotados na presente pesquisa, os dados
e informações coletadas para a construção da base metodológica para a AIP foram extraídos
da literatura da área de Ciência da Informação, Tecnologia da Informação e Arquitetura da
Informação e foram analisados numa perspectiva qualitativa. Para tanto, recorreu-se a livros
e capítulos de livros, artigos de periódicos científicos, dissertações de mestrado e teses de
doutorado, de modo que esta pesquisa pode ser classificada como bibliográfica.
Do ponto de vista procedimental, a pesquisa foi dividida em duas etapas. Na
primeira etapa se investigou a existência de conceitos e metodologias para a AIP por meio
da revisão de literatura. Após a revisão detalhada da literatura, adotou-se a atividade de
aprofundamento conceitual da AIP, feita por Oliveira (2014) como insumo para a laboração
de uma trilha metodológica que viabilize a pesquisa científica e o projeto em Arquitetura da
Informação Pervasiva.
A construção da base metodológica se deu via desenho fenomenológico-sistêmico,
ou seja, articulando-se a epistemologia fenomenológica com a epistemologia sistêmica, tal
3152
escolha se alinha ao conceito de
AIP proposto por Oliveira (2014), que defende a
fenomenologia como adequada para tratar da AIP visto que fornece as relações entre os
fenômenos e suas essências. Husserl é considerado o fundador da corrente fenomenológica
(MARTINS; THEÓPHILO, 2009). Nesta corrente os fenômenos são “[...]objetos de estudo
da fenomenologia, o instrumento é a intuição e busca-se compreender a essência dos
fenômenos sem separar sujeito e objeto.” (MARTINS; THEÓPHILO, 2009, p. 44).
Em complemento a epistemologia fenomenológica, adotou-se a abordagem
sistêmica que segundo Martins e Theóphilo (2009), alimenta-se da Teoria Geral dos
Sistemas de Ludwig Von Bertalanffy (BERTALANFFY,1975). Sobre o sistemismo Demo
(1985, p. 111) acrescenta:
[...] a teoria sistêmica aproveitou tudo o que veio do campo da
informática, na qualidade de instrumentos capazes de detecção de
conflitos, de elaboração de respostas adequadas, de planejamento
integrado, de controle de processos, de avaliação de projetos, e assim por
diante.
Adotou-se fenomenologia e sistemismo como um caminho articulado para se chegar
ao objetivo da presente pesquisa que é apresentar um aparato metodológico utilizável em
pesquisas científicas e no projeto de Arquiteturas Informacionais Pervasiva.
4 UMA BASE METODOLÓGICA PARA A ARQUITETURA DA INFORMAÇÃO
PERVASIVA
No intuito de possibilitar a investigação científica em Arquitetura da Informação
Pervasiva e a orientação aos arquitetos da informação na práxis de projetar, acompanhar e
avaliar a Arquitetura da Informação Pervasiva em uma ecologia informacional complexa,
elaborou-se uma base metodológica derivada do aprofundamento conceitual realizado por
Oliveira (2014).
O que apresentamos é o produto da
reflexão sobre critérios e métodos para
construção e investigação de ecologias informacionais complexas pautadas pela Arquitetura
da Informação Pervasiva, por meio de sete etapas iterativas que objetivam delinear a) a
fenomenologia do contexto, b) o mapeamento de essências; c) os relacionamentos
complexos; d) a definição da ecologia; e) os padrões da ecologia; f) a implementação e g) a
avaliação. A FIGURA 2 é uma representação visual da base metodológica.
3153
FIGURA 2 - Base metodológica para Arquitetura da Informação Pervasiva
Fonte: Oliveira (2014, p. 173)
A FIGURA 2 representa uma metodologia se vista como “[...] um conjunto de
procedimentos metódicos de uma ou mais ciências acoplada a análise filosófica de tais
procedimentos [...]” (ABBAGNANO, 2007, p. 650). Trata-se de um conjunto de
procedimentos técnicos de averiguação ou verificação à disposição de determinada
disciplina ou grupo de disciplinas viabiliza a prática de projetos, acompanhamento e
avaliação de ecologias informacionais complexas, em termos arquiteturais. De forma
complementar, trata da análise crítica das técnicas de investigação empregadas nos
contextos científicos de pesquisa em Arquitetura da Informação Pervasiva.
As ecologias informacionais complexas são os objetos/fenômenos tratáveis pela
abordagem Pervasiva da AI (OLIVEIRA, 2014). Por esta razão, a fenomenologia é adotada
como um mecanismo epistêmico capaz de equilibrar complexidade e simplicidade para se
chegar ao que é essencial e indispensável na ecologia informacional complexa. A
investigação científica e o projeto de uma ecologia informacional complexa deve ser
norteado por uma exaustiva busca das condições indispensáveis a existência e ao
funcionamento da ecologia, sendo necessário chegar às categorias que, se ausentes, tornam
a ecologia instável.
A fenomenologia do contexto, apresentada na Figura 2, deve ser realizada sobre o
contexto ecológico complexo através dos procedimentos de redução fenomenológica e
eidética até obter o eidos, ou elementos essenciais da ecologia.
3154
Do ponto de vista procedimental, esta etapa pode ser executa através de três passos
conforme apresentados no QUADRO 2.
QUADRO 2 - Fenomenologia do Contexto
Passo
Coleta de dados e informações sobre a
ecologia informacional complexa
Tratamento dos dados e informações
Redução fenomenológica e eidética
Descrição
O pesquisador e/ou arquiteto da informação pode
recorrer a relatórios técnicos e científicos que tratem da
ecologia como um todo e também das partes da
ecologia (espaços, ambientes, tecnologias, artefatos
tecnológicos, necessidades e comportamentos dos
sujeitos). Execução de Briefing. Aplicação de
questionários. Realização de entrevistas
semiestruturadas com amostra de sujeitos da ecologia.
Execução de Brainstorms. Coleta em fontes de dados
abertos, entre outros.
A coleta dos dados e informações relacionadas à
ecologia poderá gerar um grande de volume de
dados/informações. Assim, o pesquisador e/ou arquiteto
da informação poderá realizar um procedimento de
crítica dos dados, no sentido de selecionar no banco de
dados/informações, os elementos de natureza
conceitual, descritiva e relacional, para serem usados na
etapa subsequente.
Nesse passo, o pesquisador e/ou arquiteto da
informação poderá aplicar os princípios
fenomenológicos de redução para atingir o eidos da
ecologia informacional. Do ponto de vista
procedimental, é necessário abandonar juízos
apriorísticos sobre a ecologia para percorrer os
dados/informações e selecionar aquilo que for essencial
e indispensável como: conceitos, características e
possíveis relações entre as partes da ecologia. Esses
elementos conceituais podem ser colocados em
separado para serem categorizados na segunda etapa.
Fonte: Extraído de Oliveira (2014, p. 176)
A segunda etapa do processo iterativo trata do mapeamento de espaços, ambientes,
aparatos tecnológicos e sujeitos. Após a fenomenologia do contexto aparecerão os
elementos constituintes da ecologia informacional, compreendidos como essenciais ao
funcionamento e à manutenção da ecologia. Na primeira etapa se gera um rol de categorias
desmontadas e desconexas, que devem ser mapeadas, listadas e organizadas na segunda
etapa. Tal categorização permite que o pesquisador e/ou arquiteto da informação tenha
ciência de quantos e quais são os espaços informacionais, os ambientes informacionais, as
tecnologias, os artefatos tecnológicos componentes da ecologia, o perfil e também os
comportamentos dos sujeitos. Esta etapa deve produzir entregáveis sob a forma de listas e
mapas de categorias.
3155
Num terceiro momento são construídos os relacionamentos complexos entre partes
da ecologia e ainda se gera possiblidades de conexão com outras ecologias. Se a segunda
etapa gerou a categorização e os esclarecimentos sobre os espaços, os ambientes, as
tecnologias e artefatos tecnológicos, sobre os sujeitos e seus comportamentos, a terceira
etapa estabelecerá as relações entre os achados. Podem ser utilizados nesta etapa softwares
para mapas conceituais, mapas mentais, construção de blueprints, entre outras
possibilidades.
Executadas as etapas anteriores, se tem condições de, na quarta etapa, fazer o
delineamento da ecologia, permitindo que ela seja visualizada em todas as suas dimensões.
Será possível ainda representá-la através de conceitos, de visualidades, de mapas
conceituais, ou outros recursos que mostrem ao pesquisador e/ou arquiteto da informação a
amplitude e as exigências do projeto. Nesse ponto será possível visualizar a camada
informacional responsável por conectar as partes da ecologia, gerando um todo complexo e
dinâmico e sendo possível perceber a abordagem sistêmica. Wireframes são possíveis
entregáveis para esta etapa, porém os softwares disponíveis no mercado para a construção
de wireframes trabalham em duas dimensões, insuficientes para representar a ecologia
informacional complexa em nível de relatório de pesquisa científica ou de projeto prático.
Um wireframe gerado para esta etapa deve ser tridimensional para possibilitar a
visualização e a navegação no wireframe enquanto representação da ecologia.
A quinta etapa diz respeito a adoção de Padrões que possibilitem o funcionamento
da ecologia. Considerando a complexidade e funcionamento da ecologia, os espaços
informacionais, os ambientes, as tecnologias e os artefatos tecnológicos da ecologia devem
ser pensados em termos de padrões que efetivem os fluxos informacionais e de sujeitos na
ecologia. Devem ser considerados os padrões de metadados, padrões de interoperabilidade,
padrões semânticos e padrões de acessibilidade para que se efetive a encontrabilidade da
informação na ecologia. A propósito, a encontrabilidade da informação é um “[...] elemento
que se situa entre as funcionalidades de um ambiente informacional tradicional, digital ou
híbrido e as características dos sujeitos [...]” (VECHIATO, 2013, p. 169).
Executados os passos anteriores, a sexta etapa trata da implementação e será
responsável pela consolidação do funcionamento ecológico. Nesta etapa serão produzidos
os softwares, hardwares, adaptações nos ambientes físicos no intuito de possibilitar o
funcionamento da ecologia.
A sétima etapa apresentada nem sempre encerra o processo pois a metodologia é
iterativa e permite o retorno a quaisquer das etapas anteriores. O projeto da ecologia ou a
3156
investigação científica necessita ser avaliada, o pesquisador e/ou arquiteto da informação
deve inferir a necessidade de finalizar sua atividade ou iniciar uma nova iteração, ou
quantas forem necessárias, para refinar o processo e possibilitar o funcionamento pervasivo
da ecologia informacional. Podem ser utilizados testes de software, testes de usabilidade,
testes de acessibilidade, avaliação da recuperação da informação, avaliação da conexão
entre partes heterogêneas da ecologia, entre outros. Por fim, destacamos a Ciência da
Informação como campo capaz de nortear o processo iterativo aqui delineado como uma
base metodológica para a Arquitetura da Informação Pervasiva.
5 CONSIDERAÇÕES FINAIS
Nesta pesquisa adotou-se uma articulação epistemológica entre fenomenologia e
sistemismo como caminho para se chegar aos objetivos de uma pesquisa de natureza
metodológica que trata da Arquitetura da Informação Pervasiva. A fenomenologia permitiu
encontrar as categorias essenciais da base metodológica aqui apresentada. A ação efetiva da
fenomenologia permitiu que ela fosse inserida nas etapas iniciais conforme apresentado na
Figura 2. O sistemismo foi responsável por finalizar a elaboração da base metodológica
para a AIP, tendo como base princípios de integração entre as partes da ecologia e o todo,
gerando a possibilidade de integração de uma ecologia informacional complexa com outras.
Outras abordagens epistemológicas podem ser utilizadas para tratar de pesquisas
relacionadas a Arquitetura da Informação Pervasiva, inclusive trazendo outros pontos de
vista e enriquecendo o debate sobre Arquitetura da Informação.
O aparato metodológico apresentado neste estudo é de natureza teórica e necessita
ser aplicado em contextos pragmáticos. Apoiando-se nos princípios da pós-modernidade,
este aparato metodológico pretende ser generalista e contextualista ao mesmo tempo. É um
aparato metodológico generalista na medida que articula categorias essenciais ao
funcionamento ecológico: a) a fenomenologia do contexto, b) o mapeamento de essências;
c) os relacionamentos complexos; d) a definição da ecologia; e) os padrões da ecologia; f) a
implementação e g) a avaliação, o que permite sua aplicação em quaisquer contextos
ecológicos complexos. Por outro lado, sua plasticidade permite que as etapas sejam
alteradas ou que novas sejam inseridas em função dos contextos ecológicos específicos, o
que permite classificar o aparato metodológico como contextualista.
Atualmente, a base metodológica para Arquitetura da Informação Pervasiva
apresentada neste trabalho está sendo aplicada em uma pesquisa apoiada pelo CNPq que
objetiva investigar a aplicação da Arquitetura da Informação Pervasiva no processo
editorial de livros eletrônicos.
3157
REFERÊNCIAS
ABBAGNANO, Nicola. Dicionário de Filosofia. 5. ed. São Paulo: Martins Fontes, 2007.
AGAZZI, Evandro. El impacto epistemológico de la tecnología. Génova: Universidad
Génova, 1997. Disponível em: <http://www.argumentos.us.es/numero1/agazzi.htm>
Acesso 25 ago. 2013.
ALBUQUERQUE, Alfram Roberto Rodrigues de. Discurso sobre fundamentos de
Arquitetura da Informação. 2010. 241f. Tese (Doutorado em Ciência da Informação) –
Faculdade de Ciência da Informação. Universidade de Brasília, Brasília, 2010.
ALBUQUERQUE, Alfram Roberto Rodrigues de; LIMA-MARQUES, Mamede. Sobre os
fundamentos da Arquitetura da Informação. Perspectivas em Gestão & Conhecimento,
João Pessoa, v. 1, p. 60-72, 2011.
BAQUERO, Marcello. Pesquisa quantitativa nas Ciências Sociais. Porto Alegre: UFRGS
Editora, 2009.
BERTALANFFY, Ludwig Von. Teoria geral dos sistemas. São Paulo: Vozes, 1975.
DEMO, Pedro. Introdução à metodologia da ciência. São Paulo: Atlas, 1985.
DEMO, Pedro. Metodologia Científica em Ciências Sociais. São Paulo: Atlas, 1995.
DILLON, Andrew. Information Architecture why, what & when? 2003. Disponível em:
<http://www.asis.org/Conferences/Summit2000/dillon/>. Acesso em: 26 nov. 2011.
GOMES, Willinan. Fenomenologia e Pesquisa em Psicologia. Porto Alegre: Editora
UFRGS, 1998.
LEÓN, Rodrigo Ronda. Arquitectura de Información: análisis histórico-conceptual. No sólo
usabilidade Journal, n. 7, Abr. 2008. Disponível em:
<http://www.nosolousabilidad.com/articulos/ai_cc_informacion.ht
historia_arquitectura_informacion.htmm>. Acesso em: 20 abr. 2013.
LOPES, Maria Immacolata Vassallo de. Pes
Loyola, 2005.
is e
o
nic
o. São Paulo: Edições
MACEDO, Flávia Lacerda Oliveira de. Arquitetura da informação: aspectos
epistemológicos, científicos e práticos. 2005. 190 f. Dissertação (Mestrado em Ciência da
Informação) – Faculdade de Ciência da Informação, Universidade de Brasília, Brasília,
2005.
MARTINS, Gilberto de Andrade; THEÓPHILO, Carlos Renato. Metodologia da
investigação científica para Ciências Sociais Aplicadas. São Paulo: Atlas, 2009.
MORESI, Eduardo (Org.). Metodologia da pesquisa. Brasília: Universidade Católica de
Brasília, 2003. Disponível em:
<http://http://www.unisc.br/portal/upload/com_arquivo/metodologia_da_pesquisa.pdf>.
Acesso em: 9 out. 2013.
MORVILLE, Peter; ROSENFELD, Louis. Information for Architecture for the Word
Wide Web. 3. ed. Sebastopol, CA: O'Reilly, 2006.
3158
OLIVEIRA, Henry Poncio Cruz de. Arquitetura da informação pervasiva: contribuições
conceituais. 2014. 202 f. Tese (Doutorado em Ciência da Informação) – Faculdade de
Filosofia e Ciências, Universidade Estadual Paulista, Marília, 2014.
RESMINI, Andrea; ROSATI, Luca. Pervasive information architecture: designing crosschannel user experiences. Burlington: Elsevier, 2011.
VECHIATO, Fernando Luiz. Encontrabilidade da informação: contributo para uma
conceituação no campo da ciência da informação. 2013. 206 f. Tese (Doutorado em
Ciência da Informação) – Faculdade de Filosofia e Ciências, Universidade Estadual
Paulista, Marília, 2013.
VIDOTTI, Silvana Aparecida Borsetti Gregório; CUSIN, César Augusto; CORRADI,
Jiliane Adne Mesa. Acessibilidade digital sob o prisma da Arquitetura da Informação. In:
GUIMARÃES, José Augusto Chaves; FUJITA, Mariângela Spotti Lopes. Ensino e
pesquisa em Biblioteconomia no Brasil: a emergência de um novo olhar. São Paulo:
Cultura Acadêmica, 2008.
WURMAN, Richard Saul. Information Architects. Zurich: Graphis Press Corp, 1996.
3159
ENCONTRABILIDADE DA INFORMAÇÃO: ATRIBUTOS E RECOMENDAÇÕES
PARA AMBIENTES INFORMACIONAIS DIGITAIS9
FINDABILITY OF INFORMATION: ATTRIBUTES AND GUIDELINES TO DIGITAL
INFORMATIONAL ENVIRONMENTS
Fernando Luiz Vechiato
Silvana Aparecida Borsetti Gregorio Vidotti
Resumo: Em um primeiro momento, apresenta as bases epistemológicas e teóricas que
sustentam a inserção de um conceito operatório para a encontrabilidade da informação no
campo da Ciência da Informação. Em um segundo momento, define os principais atributos
e recomendações para a encontrabilidade da informação, com vistas à sua compreensão sob
uma perspectiva prática, a partir do respaldo epistemológico e teórico apresentado. Por
meio de um estudo teórico, exploratório, bibliográfico e documental, os resultados revelam
que epistemologicamente a encontrabilidade da informação se insere na Ciência da
Informação no paradigma pós-custodial, que privilegia o acesso à informação e é
significativamente influenciado pelas Tecnologias de Informação e Comunicação. As
concepções teóricas desse conceito se concentram na evolução da World Wide Web e na
perspectiva das dimensões da linguagem, em que se verifica a pragmática como tendência,
visto que alia o desenvolvimento tecnológico às ações praticadas por sujeitos
informacionais e institucionais em ambientes informacionais digitais. Tendo em vista que
essas ações podem viabilizar a encontrabilidade da informação, esses sujeitos são
entendidos como mediadores. Portanto, o conceito de mediação infocomunicacional é base
para a encontrabilidade da informação. Para sua aplicação em ambientes informacionais
digitais, foram definidos atributos e recomendações que devem ser considerados no
contexto da Arquitetura da Informação. Os atributos caracterizam o conceito e as
recomendações sinalizam ações práticas para o projeto e para a avaliação da
encontrabilidade da informação. As concepções epistemológicas, teóricas e práticas
abordadas alicerçam o referido conceito operatório na Ciência da Informação, e deve ser
mais explorado neste campo científico porque o objetivo de qualquer ambiente
informacional é ampliar as possibilidades de encontro da informação pelos sujeitos
informacionais.
Palavras-chave: Encontrabilidade da Informação. Arquitetura da Informação. Mediação
Infocomunicacional. Ambientes Informacionais Digitais. Informação e Tecnologia.
Abstract: At first, this paper presents the epistemological and theoretical bases that support
the inclusion of an operational concept for the findability of information in the field of
Information Science. In a second moment, it defines the key attributes and
recommendations for the findability of information, with a view to their understanding in a
practical perspective, from the epistemological and theoretical support presented. From a
theoretical, exploratory, bibliographic and documentary study, the results reveal that
epistemologically the findability of information fits in Information Science in post-custodial
paradigm that focuses on access to information and is significantly influenced by
Information and Communication Technologies. The theoretical conclusions of this concept
focus on the evolution of the World Wide Web and from the perspective of the dimensions
9
Financiamentos da pesquisa: CAPES PDSE – Processo: 18914-12-8; CAPES DS; CNPq PQ –
Processo: 308443/2010-1; CNPq CHSSA – Processo: 407149/2012-0; CNPq Universal –
Processo: 486147/2011-8.
3160
of language, where there is as pragmatic trend, as technological development that combines
the actions taken by informational and institutional individuals in digital information
environments. Given that these actions turn enable or not the findability of information,
these individuals can be understood as mediators. Therefore, the concept of
infocommunicational mediation is the basis for the findability of information. For its
application in digital information environments, were defined attributes and guidelines
which should be considered in the context of Information Architecture. The attributes
characterizing the concept and guidelines point at practical actions for the design and for
evaluation of the findability of information. Epistemological, theoretical and practical
concepts addressed underpin the called operative concept in information science and should
be further explored in this scientific field, because the purpose of any information
environment is to expand the possibilities of finding the information by the informational
individuals.
Keywords: Findability of Information. Information Architecture. Infocommunicational
Mediation. Digital Informational Environments. Information and Technology.
1 INTRODUÇÃO
O contexto sociotécnico e pragmático hodierno resulta da evolução das Tecnologias
de Informação e Comunicação (TIC) e das ações infocomunicacionais empreendidas por
diferentes mediadores em ambientes informacionais digitais, sejam estes sujeitos
informacionais10 e/ou institucionais 11.
Ambos os aspectos contribuem significativamente para ampliar as possibilidades de
organização, de disseminação, de recuperação, de acesso e de uso da informação. Nesse
sentido, há uma contribuição mútua entre humanos e máquinas/tecnologias, tendo em vista
que um transforma o outro no decorrer dos processos que compõem o fluxo
infocomunicacional.
A partir dessas premissas, entendemos que a busca pelo efetivo diálogo entre
sistemas de informação e sujeitos informacionais potencializa as possibilidades de encontro
da informação em ambientes informacionais digitais.
O termo
encontrabilidade,
traduzido
do
inglês
findability,
foi definido
preliminarmente por Peter Morville (2005a) em uma perspectiva mais técnica que
10 Neste texto, utilizamos o termo ‘sujeitos informacionais’ em substituição ao termo ‘usuários’,
considerando a complexidade que envolve o sujeito e sua interação com recursos
informacionais em sistemas e ambientes de informação. Partimos da concepção de Assis e
Moura (2013) para caracterizar os ‘sujeitos informacionais’: “Por sujeito informacional
entende-se um sujeito social que manifesta a sua subjetividade através do estabelecimento de
identidades e percursos informacionais na web. Ele é visto como um sujeito social pragmático,
uma vez que constroi suas relações pela via da linguagem e do compartilhamento de
significados. Tal fenômeno marca a passagem de um usuário passivo em busca de recursos que
atendam às suas necessidades de informação para um sujeito ativo e dinamizador dos fluxos
informacionais [...].” (ASSIS; MOURA, 2013, p.86).
11 Entendemos por ‘sujeitos institucionais’ aqueles que atuam nos contextos institucionais como
os profissionais de informática e os profissionais da informação.
3161
científica. Considerando seu diálogo com os estudos relacionados à recuperação da
informação na Ciência da Informação e sua relevância para os ambientes informacionais,
mormente os digitais, buscamos sustentar um conceito operatório para a encontrabilidade a
fim de ser incorporado no bojo do referido campo científico.
Por meio de estudo teórico, exploratório, bibliográfico e documental, este trabalho
teve como objetivo: em um primeiro momento, apresentar as bases epistemológicas e
teóricas que alicercem a incorporação do conceito de encontrabilidade da informação na
Ciência da Informação, construídas tendo como ponto de partida as concepções técnicas de
Morville (2005a); e, em um segundo momento, definir os principais atributos e
recomendações para a encontrabilidade da informação, com vistas à sua compreensão sob
uma perspectiva prática.
2 ENCONTRABILIDADE (FINDABILITY) À LUZ DE PETER MORVILLE: UMA
PERSPECTIVA TÉCNICA
Nos últimos anos, os avanços tecnológicos ampliaram as possibilidades de
recuperação, de acesso, de uso e de apropriação da informação a partir da ligação e do
relacionamento entre dados e informações em diferentes dispositivos e sistemas, além da
colaboração dos sujeitos informacionais na produção e na organização da informação e do
conhecimento em ambientes informacionais digitais.
Diante desse cenário sociotécnico, Peter Morville apresentou o termo findability em
seu livro Ambient Findability no ano 2005, em que demonstra a facilidade que temos de
encontrar qualquer informação a respeito de algo ou alguém a partir de qualquer local e a
qualquer momento. (MARCOS, 2007).
A tradução do termo findability para a língua portuguesa não é consensual entre os
autores. Passaremos nesse momento a utilizar o termo em português ‘encontrabilidade’, a
exemplo de Landshoff (2011), com vistas à sua sustentação e consolidação nas pesquisas
desenvolvidas no Brasil.
Na referida publicação, Morville (2005a, p.4, tradução nossa) conceitua
encontrabilidade como:
a) A qualidade de ser localizável ou navegável;
b) O grau no qual um determinado objeto é facilmente descoberto ou
localizado;
c) O grau no qual um sistema ou ambiente suporta a navegação e
recuperação.
3162
A partir dos conceitos de Morville (2005a), percebemos que a encontrabilidade
ocorre a partir da busca de informação por meio da navegação em um web site ou por meio
das estratégias de pesquisa lançadas em um mecanismo de busca (search engine).
Em relação aos mecanismos de busca, alguns web sites são mais facilmente
encontrados a partir de um mecanismo de busca externo do que a partir de seus próprios
recursos de pesquisa (SPAGNOLO et al., 2010). Ademais, os sujeitos nem sempre iniciam
suas buscas a partir da home page de um web site específico e é preciso, portanto, tornar
todas as suas páginas encontráveis a partir de qualquer mecanismo de pesquisa externo.
(MORVILLE, 2005b). Nesse sentido, Morville (2005b) sugere investir em estratégias de
Search Engine Optimization (SEO).
Outro aspecto que precisa ser considerado em relação à busca é que nem sempre a
informação encontrada é derivada de uma busca prévia, podendo ocorrer a descoberta
acidental de informação, visto que os sujeitos podem encontrar acidentalmente algo sem
estar necessariamente buscando no momento da navegação ou da busca, fato este que
modifica seu comportamento.
Em algumas aplicações Web, a pesquisa pode não ser o suficiente, sendo necessário
investir na navegação, considerando o entendimento do conteúdo pelo sujeito informacional
quando não está a procurar por um item específico. Por meio da navegação, é possível
sugerir caminhos e affordances (pistas) aos sujeitos com vistas à exploração de conteúdos
que eles não sabem que existem (SPAGNOLO et al., 2010), o que pode propiciar a
descoberta acidental da informação, conforme mencionado anteriormente.
A expressão ‘ambient findability’ que empresta o título ao livro de Morville (2005a)
alia a internet e a computação ubíqua. A informação está “nas nuvens” e isso modifica
nossas mentes fisicamente. E é nesse ambiente que testamos nossa capacidade de selecionar
as fontes pertinentes que satisfaçam nossas necessidades (MORVILLE, 2005a;
MORVILLE; SULLENGER, 2010).
Destarte, entendemos que a definição de encontrabilidade, além da navegação e da
busca em sistemas e ambientes, bem como dos aspectos que delineiam as características dos
sujeitos informacionais, alia também mobilidade, convergência e ubiquidade provenientes
do desenvolvimento tecnológico, considerando as ações humanas para a busca do
conhecimento em um determinado ambiente que possui características analógicas e digitais.
Vale mencionar que Peter Morville é um dos autores do livro Information
Architecture for the World Wide Web que, junto a Louis Rosenfeld, propõe uma
metodologia para o projeto da Arquitetura da Informação (AI) de ambientes informacionais
3163
digitais, além de um conjunto de sistemas que formam a anatomia da AI, considerando as
dimensões contexto, conteúdo e usuários (MORVILLE; ROSENFELD, 2006).
O desenvolvimento da AI para o ambiente Web é resultado dos esforços em
considerar os estudos da Biblioteconomia na era da Internet e divulgar seus princípios e
suas práticas no âmbito da User eXperience (UX) e do Web Design, conforme salienta
Morville (2005b). Para o autor a encontrabilidade é o problema de grande parte dos web
sites e a Arquitetura da Informação é a solução.
Logo, entendemos que a Arquitetura da Informação
é o caminho para a
encontrabilidade e esta, por sua vez, não está apenas associada ao projeto de sistemas e
ambientes informacionais, mas sim à capacidade que esses sistemas conferem em prover a
informação adequada aos sujeitos, considerando as características, as limitações e as
competências que eles trazem consigo no processo de busca de informação.
Batley (2007) considera que os profissionais da informação já aplicam a AI em sua
prática profissional, mormente no tocante à encontrabilidade. Argumenta que o foco da
capacitação desses profissionais é aumentar a possibilidade dos sujeitos informacionais em
encontrar a informação por meio da representação e da organização da informação e do
fornecimento de ferramentas e assistência para promover sua encontrabilidade.
A encontrabilidade atua tanto no âmbito de um web site específico, sendo a AI a
principal responsável pela encontrabilidade via navegação, quanto via mecanismos de
busca, o que possibilita às páginas do web site serem encontradas a partir desses
mecanismos, o que sugere, conforme mencionado, a utilização de estratégias de SEO. Essas
estratégias estão mormente relacionadas ao uso de metadados, ligações e recursos que
facilitem a indexação das páginas disponíveis pelos robôs de busca.
Embora estes sejam alguns dos caminhos para a encontrabilidade, destacamos neste
trabalho aspectos que podem subsidiar a encontrabilidade em ambientes informacionais,
especialmente os digitais. Para enfocar esses aspectos, que se traduzem em atributos e
recomendações, se faz necessário apresentar um conceito operatório para encontrabilidade
no contexto da Ciência da Informação, conforme será evidenciado na próxima seção,
alicerçado em bases epistemológicas e teóricas que possam sustentar sua inserção no
âmbito desta Ciência.
3164
3 ENCONTRABILIDADE DA INFORMAÇÃO: UMA PERSPECTIVA CIENTÍFICA
3.1 Bases epistemológicas
Revisitando o percurso histórico-evolutivo da Ciência da Informação, observamos
que, embora sua formação esteja atrelada ao contexto científico e tecnológico do período
pós-Segunda Guerra Mundial, os conceitos-chave que a fundamentam e os elementos da
prática profissional surgem anteriormente a esse momento. Este campo científico se
desenvolveu a partir de características que revelam dois paradigmas: o primeiro custodial,
patrimonialista, historicista e tecnicista, que está a ser gradualmente substituído por um
novo paradigma, pós-custodial, informacional e científico (SILVA; RIBEIRO, 2002).
Essa perspectiva paradigmática foi construída pelos pesquisadores portugueses
Armando Malheiro da Silva e Fernanda Ribeiro a partir de um resgate histórico,
considerando desde os primórdios da escrita até as possibilidades colaborativas que nos
permitem os ambientes informacionais digitais, perpassando pela prática profissional no
âmbito dos arquivos e bibliotecas e pelos eventos que sinalizaram a constituição da Ciência
da Informação, reconhecendo, portanto, os antecedentes históricos, teóricos e práticos que
sustentaram a formação deste campo científico e que abarcam os dois paradigmas.
Podemos sintetizar como principais características do paradigma custodial: a ênfase
na guarda, conservação e restauro do suporte informacional, sendo base da práxis de
arquivistas e bibliotecários; a preservação da cultura erudita e da memória; o aumento da
importância do acesso aos conteúdos informacionais por meio de instrumentos de pesquisa;
e a autonomia equivocada das disciplinas que constituem os fazeres dos arquivistas e
bibliotecários (SILVA; RIBEIRO, 2002).
O movimento que vem culminando na crise do paradigma custodial se inicia com as
realizações dos advogados belgas Paul Otlet e Henri La Fontaine, se fortalece com a
explosão informacional nos anos 1950 e se efetiva com o advento da internet,
especialmente da Web nos anos 1990. A partir desses eventos, percebemos que a evolução
tecnológica que permeia a humanidade contribui para a evolução dos recursos, serviços,
sistemas e ambientes informacionais e potencializam as possibilidades de acesso à
informação.
Dessa forma, um novo paradigma passa a ser desenhado no decorrer do século XX,
um paradigma pós-custodial, informacional e científico, que possui como características: a
ênfase na informação como fenômeno humano e social, independente do suporte
informacional; o dinamismo informacional em antinomia ao imobilismo documental; a
3165
prioridade no acesso à informação, visto que “[...] só o acesso público justifica e legitima a
custódia e a preservação” (SILVA; RIBEIRO, 2010, p.41); e a ascensão de um objeto
científico apropriado a esse paradigma – a informação social, que transforma as bases
teóricas e empíricas tratadas no âmbito de um campo científico social, bem como a práxis
dos profissionais da informação (SILVA; RIBEIRO, 2002).
O paradigma pós-custodial não negligencia a custódia, a memória e a preservação
que caracterizam seu paradigma antecessor. Tem como premissa a ênfase no acesso e,
portanto, os sujeitos e seus comportamentos, competências e habilidades passam a ter a
importância necessária e esperada para o projeto de sistemas e ambientes informacionais.
Nessa perspectiva, as TIC trouxeram inúmeros desafios que precisam ser discutidos
recorrentemente no campo da Ciência da Informação. O acesso e o uso da informação
devem ser enfatizados, visto que o usuário da Web é um ser difuso e, portanto, se torna
difícil delinear um perfil. Os sujeitos informacionais, nesse momento, passam a ser
determinantes a partir de suas habilidades para buscar, selecionar e avaliar os recursos
informacionais disponíveis, trazendo preocupações mais relacionadas à Information
Literacy (SILVA; RIBEIRO, 2010), sendo este um dos aspectos também abordados por
Morville (2005a) em seu livro.
Diante dessa perspectiva epistemológica e paradigmática, o delineamento de um
conceito para a encontrabilidade da informação na Ciência da Informação se insere no
escopo do paradigma pós-custodial. A convivência entre humanos e máquinas faz emergir
nesse contexto uma concepção sociotécnica que enriquece esse novo paradigma.
A noção de agenciamentos maquínicos sustenta filosoficamente essa convivência. É
contextualizada na Ciência da Informação pela pesquisadora brasileira Silvana Drumond
Monteiro para a compreensão das relações e o alinhamento das TIC, dos sistemas de signos
e da cognição por meio da conexão e da hibridização entre homem (e/ou sociedade) e
máquina (e/ou técnica), contribuindo para uma perspectiva não esvaziadora da tecnologia
(MONTEIRO, 2007; MONTEIRO, 2012; MONTEIRO, ABREU, 2009) que ainda acomete
este campo científico.
Um conceito operatório para a encontrabilidade da informação se enquadra nessas
bases epistemológicas e se insere na seara dos estudos referentes às TIC, que devem ser
consideradas como um dos objetos de estudo da Ciência da Informação, conforme sugerem
Santos e Vidotti (2009), com o mesmo grau de relevância em relação, por exemplo, à área
de Organização da Informação e do Conhecimento, devido à necessidade de construção de
3166
seu status ontológico no bojo desse campo científico na busca por concepções teóricas e
metodológicas próprias e apropriadas.
3.2 Bases teóricas
A encontrabilidade da informação, enquanto conceito, emerge da evolução
tecnológica, mormente da Web. Não apenas as tecnologias e as práticas informacionais
subsidiaram a evolução da Web, mas também suas possibilidades de linguagem.
Destarte, a evolução tecnológica da Web, tendo como respaldo os estudos da
linguagem abordados por alguns autores da Ciência da Informação, possibilita a percepção
a respeito da linguagem e de como ela influenciou as ações dos sujeitos que impulsionaram
tal desenvolvimento.
Retomando a noção de agenciamentos maquínicos, Monteiro (2012) a compreende a
partir do conceito de dobra de Leibniz, ressignificado por Deleuze (1991). Em A dobra:
Leibniz e o barroco, Gilles Deleuze explica que a dobra é uma das características do
barroco e que este possui uma função operatória, não remetendo apenas a uma essência. O
barroco “[...] não pára de fazer dobras. [...] ele curva e recurva as dobras, leva-as ao infinito,
dobra sobre dobra, dobra conforme dobra. O traço do barroco é a dobra que vai ao infinito”
(DELEUZE, 1991, p.13).
Em termos de linguagem, a dobra é o sentido que permanece entre as coisas e a
linguagem, é a conexão entre homem, máquina e linguagem, porquanto o próprio signo é
uma dobra, pois pode se dobrar, se desdobrar e se redobrar em várias semióticas e
tecnologias,
considerando
que
a
dobra
mais
simples
de
um
signo
é
seu
significante/significado (MONTEIRO, 2012). A Web possui várias dobras semióticas, visto
que ela é uma só mas se desdobra em diferentes momentos tendo em vista suas
possibilidades de linguagem, compondo a cartografia do ciberespaço.
Para caracterizar as dobras semióticas da Web, estudamos sua evolução a partir das
dimensões da linguagem, quais sejam a sintaxe, a semântica e a pragmática, conforme
explica Jorente (2012, p.106):
A sintaxe, no sentido semiótico do termo, lida com as propriedades
formais dos signos e símbolos, e a semântica lida com a relação entre os
signos e suas designações. A pragmática lida com os aspectos
psicológicos, biológicos e sociológicos que ocorrem no funcionamento
dos signos.
Nessa perspectiva, delineiam-se as seguintes dobras da Web: a Web Sintática, a Web
Semântica e a Web Pragmática.
3167
A Web Sintática agrega as tecnologias que caracterizam a estrutura estática e
organizacional da Web 1.0 com as tecnologias e práticas colaborativas da Web 2.0 (ou Web
Social). Para encontrarmos determinada informação são utilizadas as palavras/termos que
constam nas páginas, independente de serem organizadas e/ou disponibilizadas de forma
top-down (Web 1.0) ou bottom-up (Web 2.0), e sem consultar as respectivas descrições que
interpretam os significados das palavras. A Web Sintática compreende até hoje os
ambientes informacionais digitais disponíveis, mormente em relação à sua estrutura, ou
seja, páginas Web e recursos inter-relacionados via hiperlinks e possibilidades de
colaboração (KOO, 2011; SANTAELLA, 2012).
A Web Semântica nasceu como possibilidade de trazer significado aos recursos
disponíveis na Web por meio de tecnologias semânticas, metadados, ontologias e agentes
inteligentes. É também denominada Web 3.0 e Web de Dados. O uso deste último termo
parece mais apropriado, pois, conforme argumenta Andrade (2012), a semântica utilizada
para designar a Web Semântica está mais para a semântica formal, ligada à sintaxe e à
lógica, a qual difere da semântica da linguística.
Também denominada Web Social Semântica e Web 4.0, a Web Pragmática alia as
tecnologias semânticas à colaboração social, o que possibilita agregar contexto às
informações de acordo com o uso social da linguagem, considerando, portanto, as
características e o comportamento dos sujeitos informacionais (ANDRADE, 2012; KOO,
2011).
Percebemos, a partir das reflexões apresentadas, que a Web evoluiu condicionada ao
desenvolvimento tecnológico, mas também ao uso social da linguagem, cuja máxima ocorre
hodiernamente com a mediação praticada pelos sujeitos informacionais no ciberespaço.
Dessa forma, os sujeitos informacionais na rede, junto aos profissionais da
informação e projetistas/desenvolvedores de sistemas (sujeitos institucionais), podem ser
considerados mediadores (MALHEIRO; RIBEIRO, 2011), porque contribuem para
promover a encontrabilidade da informação nos ambientes colaborativos que se edificam no
ciberespaço.
A mediação no âmbito da Ciência da Informação pode apoiar um conceito
operatório para a encontrabilidade da informação, considerando o paradigma pós-custodial,
envolto em concepções sociotécnicas e pragmáticas.
Portanto, a mediação na Ciência da Informação, em uma ênfase pós-custodial,
abarca todos os processos informacionais, desde a produção até a apropriação da
informação, com destaque para uma mediação cumulativa (MALHEIRO; RIBEIRO, 2011),
3168
consequência do desenvolvimento tecnológico e das possibilidades de interação, de
colaboração e de compartilhamento no ciberespaço, onde coexistem diferentes mediadores,
como os profissionais da informação, os profissionais de informática e os sujeitos
informacionais.
Todavia, sugerimos que, conquanto houvesse a necessidade em se direcionar a
mediação, a priori, para o objeto informação, a mediação sempre está envolvida em um
processo de comunicação, ou como Martins (2010) formula, ‘nos espaços híbridos da
comunicação’, derivando daí, uma ‘mediação infocomunicacional’.
Este termo nos parece apropriado para compreender a mediação no âmbito da
Ciência da Informação e todos os seus componentes interdisciplinares provenientes da área
de Comunicação e que podem contribuir para os estudos em TIC.
3.3 Encontrabilidade da informação: conceito operatório
O conceito de encontrabilidade apresentado por Morville (2005a) está relacionado a
uma abordagem mais técnica que científica, tornando-se necessário reconfigurá-lo para ser
discutido e incorporado na Ciência da Informação.
Destarte, a partir das premissas epistemológicas e teóricas discutidas, e com base em
Vechiato (2013), entendemos que: ‘Encontrabilidade da informação’ sustenta-se
fundamentalmente nas funcionalidades de um ambiente informacional e nas características
dos sujeitos psico-sociais.
Relacionada aos processos que compõem o fluxo infocomunicacional, desde a
produção até a apropriação da informação, a encontrabilidade da informação deriva-se dos
princípios da Arquitetura da Informação e da Mediação Infocomunicacional e tem como
elemento fundamental a Intencionalidade dos sujeitos nas ações informacionais
empreendidas durante o processo de comunicação que, inclusive, subsidiam a elaboração de
técnicas e de tecnologias para a organização, representação da informação e recuperação da
informação.
As bases epistemológicas e teóricas apresentadas para a inserção do conceito
‘encontrabilidade da informação’ na Ciência da Informação, junto à perspectiva técnica da
encontrabilidade (findability) abordada por Peter Morville, forneceram subsídios para a
definição de atributos e recomendações de encontrabilidade da informação que são
apresentados na próxima seção, os quais estão diretamente relacionados ao referido
conceito operatório.
3169
4 ATRIBUTOS E RECOMENDAÇÕES PARA A ENCONTRABILIDADE DA
INFORMAÇÃO EM AMBIENTES INFORMACIONAIS DIGITAIS
4.1 Atributos de Encontrabilidade da Informação
Os atributos de encontrabilidade da informação, apresentados nas subseções que
seguem, são entendidos como características que potencializam as possibilidades de
encontro da informação pelos sujeitos num sistema ou ambiente informacional.
4.1.1 Taxonomias Navegacionais
As taxonomias navegacionais estão associadas à organização da informação que
propicia ao sujeito encontrar a informação por meio da navegação. Desse modo, auxiliam
na descoberta de informações. São utilizadas em estruturas de organização top-down.
Aquino, Carlan e Brascher (2009) problematizam que as taxonomias elaboradas em
ambientes informacionais digitais nem sempre se preocupam com a lógica na organização
da informação, o que pode dificultar a encontrabilidade da informação, pois compromete a
busca e a navegação.
A elaboração das taxonomias para a navegação em ambientes informacionais
digitais deve ser apoiada nos seguintes aspectos:
Categorização: relaciona-se ao estabelecimento de categorias gerais e
suas respectivas subcategorias baseadas em definições consistentes e de
fácil entendimento, para que possam ser rapidamente compreendidas pelos
usuários.
Controle terminológico: diz respeito à escolha dos termos adequados
para representar os conceitos, de forma objetiva, evitando problemas
como imprecisão e ambigüidade. Serão consideradas situações de
sinonímia, polissemia, emprego de siglas, abreviaturas, e termos em
outros idiomas, uma vez que podem comprometer a comunicabilidade das
taxonomias.
Relacionamento entre os termos: enfoca a hierarquização, a qual assume
grande relevância, já que esse é o principal elemento responsável pela
navegação do usuário e é a base de qualquer sistema classificatório.
Assim, a estrutura da taxonomia deve demonstrar claramente a
subordinação entre os níveis hierárquicos. Uma outra forma de
relacionamento entre os termos são as referências cruzadas que
normalmente ocorrem, no ambiente web, por meio da utilização de links.
Multidimensionalidade: orienta-se à análise da capacidade da taxonomia
permitir que um termo possa estar em mais de uma categoria, de acordo
com o contexto (AQUINO; CARLAN; BRASCHER, 2009, p.207-208).
Para auxiliar na construção de taxonomias em ambientes informacionais digitais, o
método mais adequado é o card sorting. É empregado para descobrir a representação ou o
modelo mental que os sujeitos informacionais elaboram sobre um conjunto de itens de
informação pretendidos para um determinado ambiente, visando sua categorização. Os itens
3170
são descritos em fichas de papel e espalhados sobre uma mesa. Cada participante organiza
as fichas em grupos, segundo suas próprias perspectivas. Em seguida, as combinações são
avaliadas e discutidas, podendo gerar análises quantitativas e qualitativas (FARIA, 2010).
4.1.2 Folksonomias
As folksonomias estão relacionadas à organização social da informação que propicia
ao sujeito a classificação de recursos informacionais, bem como encontrar a informação por
meio da navegação (uma nuvem de tags, por exemplo) ou dos mecanismos de busca,
ampliando as possibilidades de acesso. São utilizadas em estruturas de organização bottomup. Quando associadas aos vocabulários controlados e às tecnologias semânticas,
potencializam as possibilidades de constituição de uma Web Pragmática.
A folksonomia, por sua vez, é considerada como uma classificação social
(MORVILLE; ROSENFELD, 2006) e tem como uma de suas características o não controle
terminológico. Todos os instrumentos utilizados para organização da informação, como
taxonomias, tesauros e ontologias, se alicerçam nos termos utilizados por uma determinada
comunidade ou domínio, mas partem da linguagem natural para se constituírem como
linguagem controlada, eliminando as ambiguidades, por exemplo. Todavia, na folksonomia,
os termos atribuídos pelos sujeitos permanecem atrelados à linguagem natural, o que
interfere significativamente na recuperação e na encontrabilidade da informação.
Embora houvesse preocupações a respeito da dificuldade na recuperação da
informação a partir das folksonomias, já nos é claro que as tags atribuídas pelos sujeitos
estão auxiliando inclusive na elaboração dos instrumentos tradicionais para organização da
informação.
4.1.3 Wayfinding
O termo ‘wayfinding’ foi utilizado primeiramente pelo arquiteto Kevin Lynch, em
1960, em seu livro “The image of the city” para descrever o conceito de legibilidade
ambiental, ou seja, os elementos do ambiente construído como mapas, identificação das
ruas, sinais direcionais e outros dispositivos que nos permitem “navegar” em espaços
complexos como as cidades (MORVILLE, 2005a; LYNCH; HORTON, 2009). O conceito
tem sido investigado por biólogos, antropólogos e psicólogos para descrever o
comportamento de homens e animais em ambientes naturais e artificiais (MORVILLE,
2005a).
O wayfinding possui quatro componentes principais: orientação (orientation), que
indica o posicionamento no ambiente; decisões de rota (route decisions), que indicam os
3171
possíveis lugares que podem ser explorados; mapeamento mental (mental mapping),
relacionado às experiências de lugares já explorados que permitem mapear o espaço e tomar
decisões de lugares a explorar; e encerramento (closure), que permite reconhecer se o lugar
de destino é realmente o lugar certo (MORVILLE, 2005a; LYNCH, HORTON, 2009).
É possível relacionar o wayfinding dos ambientes físicos com a navegação na Web,
entretanto esta se constitui um tipo especial de ambiente que pode não fornecer as pistas
espaciais e uma navegação concreta comparados ao caminhar por uma cidade. Isto é,
conquanto a navegação na Web possua muitas semelhanças com o mundo físico, a
experiência do sujeito não pode contar com paisagens que sirvam como marcos no seu
caminhar entre as páginas (LYNCH, HORTON, 2009).
No decorrer da navegação, os caminhos possíveis são elaborados mentalmente pelo
sujeito. Nesse momento, o princípio da consistência, também presente como heurística da
Arquitetura da Informação Pervasiva (RESMINI; ROSATI, 2011), se torna relevante para
que ele consiga se movimentar no ambiente. A estrutura hierárquica de um web site, por
exemplo, é familiar ao sujeito. Elementos explícitos como uma trilha de navegação o
permite compreender qual o caminho percorrido (LYNCH, HORTON, 2009).
Lynch e Horton (2009) propõem recomendações para a orientação espacial em web
sites a partir dos elementos elencados por Kevin Lynch:
Caminhos: elaborar caminhos de navegação consistentes;
Regiões: criar uma identidade única, consistente, mas considerando a especificidade
de cada local (ou categoria de assunto);
Nós: não confundir o sujeito com muitas opções na home page e no menu;
Marcos: utilizar marcos consistentes na navegação visando a orientação do sujeito
no espaço.
Lynch e Horton (2009) também atentam que as formas de encontrar informação em
um web site ocorre ou por meio da navegação ou via recurso de busca no próprio site. Além
disso, o web site é encontrado por meio dos mecanismos de busca, como o Google, mas
como não se sabe ao certo qual página será recuperada, é preciso criar marcos para que o
sujeito se oriente dentro dele, independentemente do nível de profundidade em que estiver.
Como os sujeitos têm utilizado mecanismos de busca como portais para encontrar
informação, a quantidade de sujeitos que acessam preliminarmente as home pages está
diminuindo cada vez mais.
3172
Percebemos que a concepção de wayfinding aplicada à Web é redutora em relação à
complexidade do estudo em ambientes físicos. Destarte, o wayfinding se torna um caminho
profícuo para os estudos da AI Pervasiva.
4.1.4 Affordances
As affordances caracterizam um importante atributo da interface com o sujeito. Em
trabalho anterior, conforme estudos realizados, definimos affordance12 como um princípio
de usabilidade, relacionado aos incentivos e pistas atribuídos ao sistema que proporcionam
aos sujeitos a realização de determinadas ações (VECHIATO; VIDOTTI, 2012).
Todavia, a partir dos estudos de encontrabilidade da informação, entendemos que as
affordances também estão associadas à encontrabilidade, visto que fornecem subsídios para
o encontro da informação.
Na navegação, as affordances auxiliam na orientação espacial (wayfinding),
podendo ser utilizados: metáforas, trilhas de navegação, priorização da informação mais
significativa, utilização adequada de elementos estéticos entre outros. Nos mecanismos de
busca, conforme a anatomia da busca de Morville e Callender (2010), as affordances
também auxiliam na elaboração da query (como no recurso autocomplete / autosugestão,
por exemplo) e na escolha pela informação adequada nos resultados de busca.
4.1.5 Descoberta de informações
A descoberta de informações está condicionada aos demais atributos de
encontrabilidade da informação no que diz respeito às facilidades que a interface
(navegação e/ou mecanismos de busca) oferece para encontrar a informação adequada às
necessidades informacionais do sujeito.
A descoberta acidental de informação, por sua vez, se refere às necessidades que
estão em segundo plano, mas que, por intermédio da interação, podem ser priorizadas.
12
O psicólogo americano James Gibson elaborou a Teoria das Affordances a partir de seus
estudos no campo da percepção visual. Para Gibson, “[...] affordances são possibilidades de
ação que o ambiente [ou objeto] oferece ao agente. Apesar de parecer uma definição simples,
há características do conceito envolvidas nesta definição, que necessitam ser destacadas. Uma
delas está baseada na idéia de que durante a interação com o ambiente, o agente percebe as
possibilidades de ação e não as qualidades do ambiente. Além disso, a captação de tais
possibilidades depende da escala corporal e das capacidades de ação do agente” (OLIVEIRA,
2005, p. 90-91).
3173
4.1.6 Acessibilidade e Usabilidade
Com a aplicação da Arquitetura da Informação na Ciência da Informação, foi
necessário aliar os estudos de usabilidade e de acessibilidade para garantir que os sistemas e
ambientes informacionais digitais proporcionassem o acesso equitativo da informação
(acessibilidade) no âmbito do público-alvo estabelecido nos meandros de um projeto com
facilidades inerentes ao uso da interface e da informação disponibilizada (usabilidade),
viabilizando, portanto, uma experiência do sujeito satisfatória.
A facilidade de acesso e de uso das interfaces nos mais diversos tipos de sistemas e
ambientes informacionais propicia a encontrabilidade da informação.
4.1.7 Mediadores
A mediação dos informáticos está associada ao desenvolvimento de sistemas,
dispositivos, bancos de dados e interfaces com utilização de linguagens computacionais,
com vistas à gestão e à recuperação da informação.
A mediação dos profissionais da informação, por sua vez, está associada a todos os
processos informacionais em todos os tipos de ambientes informacionais. Um bibliotecário,
por exemplo, atua na seleção, na organização, na representação, no armazenamento/
preservação e na disseminação da informação, bem como promove ações para facilitar a
encontrabilidade da informação e a interação dos sujeitos com diferentes sistemas e
ambientes informacionais, conforme corrobora Batley (2007).
Por fim, a mediação dos sujeitos informacionais está relacionada às ações
infocomunicacionais que empreendem em quaisquer sistemas e ambientes informacionais,
por exemplo no que diz respeito à produção e à organização da informação e do
conhecimento em ambientes colaborativos, gerados a partir de seus conhecimentos,
comportamento e competências que caracterizam sua Intencionalidade, conforme será
abordado na próxima subseção.
4.1.8 Intencionalidade
No âmbito da Ciência da Informação, destacamos o estudo da pesquisadora
brasileira Májory Miranda (2010) que abordou a Teoria da Intencionalidade aplicada à
encontrabilidade. A Intencionalidade é um termo utilizado em letra maiúscula porquanto
designa um direcionamento e não um propósito ou objetivo, pois seu conceito fenomênico
se aplica à teoria do conhecimento e não à teoria da ação humana (MIRANDA, 2010).
3174
A Intencionalidade, segundo Sokolowski (200413), é a doutrina nuclear da
fenomenologia, ela explica que cada ato de consciência que nós
realizamos, cada ato de consciência que nós temos como algo intencional,
é consciência de ou experiência de algo ou outrem (MIRANDA, 2010,
p.155).
A autora considera que a noção de experiência do usuário (ou sujeito informacional)
está presente no fenômeno infocomunicacional por meio deste termo, visto que a
Intencionalidade do sujeito é carregada de experiências, necessidades e competências (aqui
entendemos tanto as informacionais quanto as tecnológicas), entendimento, cognição e
satisfação, fornecendo, inclusive, subsídios para a estruturação de sistemas e ambientes
informacionais.
Miranda (2010) entende que a Intencionalidade é também importante para o campo
da Organização e Representação da Informação na Ciência da Informação ao ser utilizada
para o entendimento do significado e da relevância da informação, sempre com enfoque no
comportamento informacional dos sujeitos.
Com a Intencionalidade, podemos compreender que o sujeito informacional tem
papel importante inclusive no desenvolvimento tecnológico. A colaboração dos sujeitos é
fundamental para a evolução da Web, pois, aliada às tecnologias da Web dos Dados, vêm
contribuindo sobremaneira para que novas perspectivas para ela sejam traçadas, delineando
uma Web Pragmática emergente.
Além disso, com a quantidade de recursos, serviços e ambientes informacionais
digitais disponíveis, são os sujeitos que estabelecem seus critérios de avaliação dessas
fontes, pois têm suas experiências, conhecimento e habilidades como respaldo, o que
caracteriza a information literacy.
Para Miranda (2010, p.273), portanto,
A intencionalidade de informação para a findability significa
direcionalidade de informação e se funda na experiência de cada sujeito
(user experience para controle na produção, organização e partilha de
informação); a informação que é produzida é sempre acerca de e dirigida
a, isto é, um sujeito, com a sua experiência, cria informação acerca de e
dirigida a para atingir seus objetivos. E é nesse sentido, da capacidade da
experiência do usuário, da consciência Intencional, que se baseia a web da
inovação, do paradigma atual.
Morville (2005a) alia o conceito de encontrabilidade particularmente às ações de
navegação e busca que a impulsionam. Entendemos que para que possa se efetivar, é
necessário que o conceito abarque as características relacionadas aos sistemas e sujeitos,
portanto, na nossa perspectiva, a Intencionalidade se torna um atributo fundamental para
13
SOKOLOWSKI, R. Introdução à Fenomenologia. São Paulo: Ed. Loyola, 2004.
3175
que todo o sistema e ambiente informacional seja projetado com enfoque nas experiências e
habilidades dos sujeitos informacionais.
4.1.9 Mobilidade, convergência e ubiquidade
Mobilidade, convergência e ubiquidade correspondem ao último atributo e são
aspectos que permeiam os ambientes informacionais híbridos. Estão associados ao meio
ambiente, externo aos sistemas e ambientes informacionais, mas que os incluem,
dinamizando-os e potencializando as possibilidades dos sujeitos em encontrar a informação
por meio de diferentes dispositivos e em diferentes contextos e situações.
A perspectiva da sociotecnologia da informação do pesquisador espanhol Fernando
Sáez Vacas alicerça este atributo, tendo em vista que estamos a vivenciar um Nuevo
Entorno Tecnossocial (NET), formado pelo conjunto das redes de telecomunicações,
computadores
e
suas
tecnologias
(RUD 14),
pelas
redes
sociais
(organizações,
grupos/comunidades e indivíduos), com enfoque nos nativos digitais (FUMERO, 2007).
Esses elementos tendem a trazer a esse ambiente (entorno) novas perspectivas e
ações mediadoras no ciberespaço. Desse modo, percebemos que não há segregação entre o
virtual e o real ou entre o ciberespaço e o mundo físico.
4.2 Recomendações de encontrabilidade da informação
Nesta subseção, apresentamos uma lista de recomendações de encontrabilidade da
informação a partir do referencial teórico apresentado e dos atributos de encontrabilidade da
informação definidos, considerando a necessidade de projetar e avaliar sistemas e
ambientes encontráveis. As recomendações são:
1. Elaborar taxonomias navegacionais coerentes com a terminologia utilizada pelos sujeitos;
2. Implementar recursos de classificação social (folksonomia) e de navegação por meio das
tags atribuídas pelos sujeitos.
3. Investir na mediação infocomunicacional dos sujeitos.
4. Ampliar as possibilidades dos sujeitos em encontrar a informação por meio de diferentes
ambientes e dispositivos.
5. Investigar os comportamentos, as competências, as experiências e a Intencionalidade dos
sujeitos.
14
Sáez Vacas (2007) caracteriza a Rede Universal Digital (RUD) como um conjunto heterogêneo
composto por diferentes redes: a Internet, as redes de telefonia fixa e móvel, as redes wi-fi, as
redes Global Positioning System (GPS), as redes de energia elétrica entre outras. Para o autor,
essas redes estão cada dia mais interoperáveis e formam um imenso tecido de redes, muito
complexo e quase invisível.
3176
6. Aplicar recomendações e avaliações de acessibilidade e de usabilidade.
7. Investir na utilização de affordances para orientar os sujeitos no espaço (wayfinding) no
decorrer da navegação.
8. Investir na utilização de affordances para a query e os resultados de busca.
9. Proporcionar busca pragmática.
Quanto à elaboração das taxonomias navegacionais (Recomendação 1), devem ser
observados os seguintes aspectos: categorização, controle terminológico, relacionamento
entre os termos e multidimensionalidade (AQUINO; CARLAN; BRASCHER, 2009). A
aplicação do card sorting com participação de sujeitos que representam o público-alvo pode
ser um caminho para a construção dessas taxonomias.
Conforme mencionado, a utilização de folksonomias (Recomendação 2), aliada aos
vocabulários controlados, contribuem para a encontrabilidade da informação. Todavia, a
mediação dos sujeitos precisa ser incentivada (Recomendação 3), mormente quanto à
produção e à organização da informação, neste caso, conforme também foi observado por
Morville e Callender (2010) na elaboração da anatomia da busca.
As possibilidades atuais de acesso à informação por meio de diferentes dispositivos
revelam a necessidade dos ambientes informacionais serem projetados para atuarem tanto
em ambientes analógicos quanto digitais, bem como em todos os dispositivos a partir de
tecnologias e práticas específicas, porém que mantenham consistência no nível de interação
com o sujeito (Recomendação 4). As diversas possibilidades de acesso contribuem para
que os sujeitos encontrem a informação mais facilmente.
As Recomendações 5 e 6 estão associadas aos estudos com sujeitos. Em estruturas
de organização top-down, os estudos junto aos sujeitos podem auxiliar na organização e na
representação da informação, bem como em aspectos formais de interface e em outros
aspectos do conteúdo informacional, conduzindo o ambiente para a acessibilidade, para a
usabilidade (VECHIATO; VIDOTTI, 2009) e também para a encontrabilidade da
informação. Em estruturas de organização bottom-up, a Intencionalidade dos sujeitos pode
ser utilizada para a personalização de serviços, para a contextualização dos resultados de
busca etc.
As Recomendações 7, 8 e 9 mantêm relação direta com os mecanismos de busca e
com a navegação. As affordances, conforme evidenciamos, constituem um atributo
significativo a ser aplicado na interface de sistemas e ambientes informacionais e se tornam
um caminho profícuo para o desenvolvimento das pesquisas em Arquitetura da Informação
Pervasiva.
3177
Mormente no tocante à Recomendação 9, a busca pragmática pode contemplar os
recursos autocomplete / autosugestão e mashups, que possibilitam ao sistema atribuir
sentido e contexto à query, conforme Andrade e Monteiro (2012). Em paralelo, também se
constituem como affordances, fornecendo aos sujeitos possibilidades de ações concernentes
à sua necessidade de informação, o que pode proporcionar a descoberta e o encontro da
informação. Destarte, quanto maiores as possibilidades de relacionamento entre a query e a
necessidade do sujeito, bem como entre os resultados da pesquisa, maiores serão as
possibilidades de encontrar a informação a partir dos mecanismos de busca e outros
Sistemas de Recuperação da Informação (SRI).
5 CONSIDERAÇÕES FINAIS
Este texto apresentou aspectos epistemológicos, teóricos e práticos com vistas à
incorporação do conceito ‘encontrabilidade da informação’ no escopo da Ciência da
Informação, tendo como ponto de partida a concepção técnica de Peter Morville.
Epistemologicamente, a encontrabilidade da informação se insere na Ciência da
Informação no paradigma pós-custodial, que privilegia o acesso à informação e é
significativamente influenciado pelas Tecnologias de Informação e Comunicação.
Teoricamente, o conceito ‘encontrabilidade da informação’ deriva da evolução da Web na
perspectiva das dimensões da linguagem e do conceito de mediação infocomunicacional.
Para a aplicação da encontrabilidade da informação em ambientes informacionais
digitais, foram propostos recomendações e atributos, sendo estes últimos: taxonomias
navegacionais; folksonomias; wayfinding; affordances; descoberta de informações;
acessibilidade e usabilidade; mediadores; Intencionalidade; e mobilidade, convergência e
ubiquidade.
Concluímos que os ambientes informacionais digitais, se projetados com base nas
perspectivas conceituais e práticas de um conceito de encontrabilidade ajustado para a
Ciência da Informação e alicerçado na mediação infocomunicacional, e considerados os
aspectos sociotécnicos que permeiam o projeto desses ambientes e a Intencionalidade dos
sujeitos, possibilitam melhorias na recuperação, no acesso e na apropriação da informação.
REFERÊNCIAS
ANDRADE, I. A. de. As dimensões semântica e pragmática da web e dos mecanismos
de busca no ciberespaço. 2012. 127 f. Dissertação (Mestrado Profissional em Gestão da
Informação) – Universidade Estadual de Londrina, Londrina, 2012. Disponível em:
<http://www.bibliotecadigital.uel.br/document/?code=vtls000181112>. Acesso em: 15
maio 2013.
3178
ANDRADE, I. A. de.; MONTEIRO, S. D. Diretrizes para busca de informação no
ciberespaço. Informação@profissões, Londrina, v. 1, n. 1/2, p. 187-203, jul./dez. 2012.
Disponível em:
<http://www.uel.br/revistas/uel/index.php/infoprof/article/viewFile/14595/12263>. Acesso
em: 21 ago. 2013.
AQUINO, I. J.; CARLAN, E.; BRASCHER, M. B. Princípios classificatórios para a
construção de taxonomias. Pontodeacesso, Salvador, v. 3, n. 3, p. 196-215, dez. 2009.
Disponível em:
<http://www.portalseer.ufba.br/index.php/revistaici/article/view/3626/2744>. Acesso em:
15 jul. 2013.
ASSIS, J. de; MOURA, M. A. Folksonomia: a linguagem das tags. Encontros bibli: revista
eletrônica de biblioteconomia e ciência da informação, v. 18, n. 36, p. 85-106, jan./abr.
2013. Disponível em: <https://periodicos.ufsc.br/index.php/eb/article/view/15182924.2013v18n36p85/24523>. Acesso em: 10 ago. 2013.
BATLEY, S. Information architecture for information professionals. Oxford: Chandos
Publishing, 2007.
DELEUZE, G. A dobra: Leibniz e o barroco. Campinas: Papirus, 1991.
FARIA, M. M. de. Card sorting: noções sobre a técnica para teste e desenvolvimento de
categorizações e vocabulários. Revista digital de biblioteconomia e ciência da
informação, Campinas, v. 7, n. 2, p. 1-9, jan./jun. 2010. Disponível em:
<http://www.sbu.unicamp.br/seer/ojs/index.php/rbci/article/view/436/297>. Acesso em: 15
jul. 2013.
FUMERO, A. M. Contexto sociotécnico. In: FUMERO, A.; ROCA, G. Redes Web 2.0.
Fundación Orange, 2007. p. 8-64. Disponível em:
<http://www.fundacionorange.es/areas/25_publicaciones/WEB_DEF_COMPLETO.pdf>.
Acesso em: 12 fev. 2011.
JORENTE, M. J. V. Ciência da informação: mídias e convergência de linguagens na web.
São Paulo: Cultura Acadêmica, 2012.
KOO, L. C. Web 3.0: impacto na sociedade de serviços: uma análise da comunicação
contemporânea. 2011. 228 f. Tese (Doutorado em Comunicação e Semiótica) – Pontifícia
Universidade Católica de São Paulo, São Paulo, 2011. Disponível em:
<http://www.sapientia.pucsp.br/tde_busca/arquivo.php?codArquivo=13429>. Acesso em:
10 mar. 2013.
LANDSHOFF, R. Findability: elementos essenciais para as formas de encontro da
informação em bibliotecas digitais. 2011. 127 f. Dissertação (Mestrado em Tecnologias da
Inteligência e Design Digital) – Pontifícia Universidade Católica de São Paulo, São Paulo,
2011. Disponível em:
<http://www.sapientia.pucsp.br//tde_busca/arquivo.php?codArquivo=13775>. Acesso em:
15 maio 2013.
LYNCH, P. J.; HORTON, S. Web style guide: basic design principles for creating web
sites. 3. ed. 2009. Disponível em: <http://webstyleguide.com/wsg3/>. Acesso em: 24 maio
2013.
3179
MALHEIRO, A.; RIBEIRO, F. Paradigmas, serviços e mediações em Ciência da
Informação. Recife: Néctar, 2011.
MARCOS, M. Information architecture & findability: Peter Morville interview. El
profesional de la información, v. 16, n. 3, p. 268-269, maio/jun. 2007. Disponível em:
<http://www.elprofesionaldelainformacion.com/contenidos/2007/mayo/12.pdf>. Acesso em
04 jun. 2014.
MARTINS, A. A. L. Mediação: reflexões no campo da ciência da informação. 2010. 253 f.
Dissertação (Mestrado em Ciência da Informação) – Escola de Ciência da Informação,
Universidade Federal de Minas Gerais, Belo Horizonte, 2010. Disponível em:
<http://www.tdf-biblio.ufv.br/bitstream/handle/1843/ECID88MHR9/dissertacao_ana_amelia.pdf?sequence=1>. Acesso em: 20 abr. 2013.
MIRANDA, M. K. F. de O. O acesso à informação no paradigma pós-custodial: da
aplicação da intencionalidade para findability. 2010. 353 f. Tese (Doutorado em Informação
e Comunicação em Plataformas Digitais) – Faculdade de Letras, Universidade do Porto,
Porto, 2010. Disponível em: <http://repositorioaberto.up.pt/bitstream/10216/50422/2/tesedoutmajorymiranda000112543.pdf>. Acesso em:
15 mar. 2013.
MONTEIRO, S. D. A dobra semiótica e os agenciamentos maquínicos: por uma ontologia
das tecnologias de informação e comunicação. In: CERVANTES, B. M. N. (Org.).
Horizontes da organização da informação e do conhecimento. Londrina: EDUEL, 2012.
p. 63-96.
MONTEIRO, S. D. O ciberespaço: o termo, a definição e o conceito. Datagramazero, v. 8,
n. 3, p. 1-29, jun. 2007. Disponível em: <http://www.dgz.org.br/jun07/Art_03.htm>. Acesso
em: 30 jun. 2011.
MONTEIRO, S. D.; ABREU, J. G. de. O pós-moderno e a organização do conhecimento no
ciberespaço: agenciamentos maquínicos. Datagramazero, v. 10, n. 6, p. 1-9, dez. 2009.
Disponível em: <http://www.dgz.org.br/dez09/Art_05.htm>. Acesso em: 30 jun. 2011.
MORVILLE, P. Ambient findability. Sebastopol: O’Really, 2005a.
MORVILLE, P. Libraries at the crossroads of ubiquitous computing and the internet.
Online, v. 29, n. 6, nov./dez 2005b. Disponível em:
<http://www.infotoday.com/online/nov05/morville.shtml>. Acesso em: 04 jun. 2014.
MORVILLE, P.; CALLENDER, J. Search patterns: design for discovery. Canadá:
O´Reilly, 2010.
MORVILLE, P.; ROSENFELD, L. Information architecture for the world wide web. 3.
ed. Sebastopol: O’Really, 2006.
MORVILLE, P.; SULLENGER, P. Ambient findability: libraries, serials, and the internet
of things. The serials librarian, v. 58, n. 1-4, p. 33-38, 2010.
OLIVEIRA, F. I. da S. Affordances: a relação entre agente e ambiente. 2005. 99 f.
Dissertação (Mestrado em Filosofia) – Faculdade de Filosofia e Ciências, Universidade
Estadual Paulista, Marília, 2005. Disponível em:
<http://www.athena.biblioteca.unesp.br/exlibris/bd/bma/33004110041P1/2005/oliveira_fis_
me_ma.pdf>. Acesso em: 02 nov. 2013.
3180
RESMINI, A.; ROSATI, L. Pervasive information architecture: designing cross-channel
user experiences. Burlington: Elsevier, 2011.
SÁEZ VACAS, F. Contextualización sociotécnica de la web 2.0: vida y sociedad en el
nuevo entorno tecnossocial. In: FUMERO, A.; ROCA, G. Redes Web 2.0. Fundación
Orange, 2007. p. 96-122. Disponível em:
<http://www.fundacionorange.es/areas/25_publicaciones/WEB_DEF_COMPLETO.pdf.>.
Acesso em: 12 fev. 2011.
SANTAELLA, L. A tecnocultura atual e suas tendências futuras. Signo y pensamiento, v.
30, p. 30-43, jan./jun. 2012. Disponível em:
<http://revistas.javeriana.edu.co/index.php/signoypensamiento/article/view/2408/1692>.
Acesso em: 22 maio 2013.
SANTOS, P. L. A. da C.; VIDOTTI, S. A. B. G. Perspectivismo e tecnologias de
informação e comunicação: acréscimos à Ciência da Informação? Datagramazero, v. 10, n.
3, p. 1-10, jun. 2009. Disponível em: <http://dgz.org.br/jun09/Art_02.htm>. Acesso em: 8
jul. 2012.
SILVA, A. M. da. RIBEIRO, F. Das <<ciências>> documentais à Ciência da
Informação: ensaio epistemológico para um novo modelo curricular. Porto: Ed.
Afrontamento, 2002.
SILVA, A. M. da. RIBEIRO, F. Recursos de informação: serviços e utilizadores. Lisboa:
Universidade Aberta, 2010.
SPAGNOLO, L.; BOLCHINI, D.; PAOLINI, P.; DI BLAS, N. Beyond findability: searchenhanced information architecture for content-intensive Rich Internet Applications.
Journal of information architecture, v. 2, n. 1, p. 19-36, 2010. Disponível em:
<http://journalofia.org/volume2/issue1/03-spagnolo/>. Acesso em: 12 jun. 2013.
VECHIATO, F. L. Encontrabilidade da informação: contributo para uma conceituação
no campo da ciência da informação. 2013. 206 f. Tese (Doutorado em Ciência da
Informação) – Faculdade de Filosofia e Ciências, Universidade Estadual Paulista, Marília,
2013. Disponível em: <http://www.marilia.unesp.br/Home/PosGraduacao/CienciadaInformacao/Dissertacoes/Tese_de_Doutorado__Fernando_Luiz_Vechiato.pdf>. Acesso em: 15 jan. 2014.
VECHIATO, F. L.; VIDOTTI, S. A. B. G. Recomendações de usabilidade e de
acessibilidade em projetos de ambientes informacionais digitais para idosos. Tendências da
pesquisa brasileira em ciência da informação, v. 5, n. 1, p. 1-23, 2012. Disponível em:
<http://inseer.ibict.br/ancib/index.php/tpbci/article/view/87/132>. Acesso em: 06 ago. 2013.
VECHIATO, F. L.; VIDOTTI, S. A. B. G. Subsídios teórico-metodológicos para a
construção de ambientes informacionais digitais. In: BORGES, M. M.; CASADO, E. S.
(Orgs.). A ciência da informação criadora de conhecimento. v. 2. Coimbra: Imprensa da
Universidade de Coimbra, 2009. p. 287-299. Disponível em: <http://www.eventosiuc.com/ocs/public/conferences/1/schedConfs/1/actas_EDIBCIC2009_2.pdf>. Acesso em:
15 jan. 2012.
3181
CONVERSÃO DE REGISTROS EM XML PARA MARC 21: UM MODELO
BASEADO EM XSLT15
RECORD CONVERSION FROM XML TO MARC 21: A MODEL BASED ON XSLT
STYLESHEETS
Fabrício Silva Assumpção
Plácida Leopoldina Ventura Amorim da Costa Santos
Resumo: Considerando a existência de sistemas de gerenciamento de bibliotecas que não
utilizam os Formatos MARC 21 ou quaisquer outros padrões de metadados
internacionalmente aceitos, este trabalho tem por objetivo elaborar um modelo para a
conversão de registros de distintos padrões de metadados codificados com a Extensible
Markup Language (XML) em registros nos Formatos MARC 21, tendo como um dos
pontos centrais do modelo a utilização de folhas de estilo de transformação elaboradas com
a linguagem Extensible Stylesheet Language for Transformation (XSLT). Após uma revisão
de literatura, é apresentado o modelo e seus processos: mapeamento, elaboração de regras
de conversão, elaboração da folha de estilo XSLT, verificação da folha de estilo, exportação
e conversão dos registros. Como resultados alcançados, destaca-se que o modelo para a
conversão de registros (1) busca apresentar uma generalização e uma formalização dos
processos e dos componentes necessários à conversão de registros utilizando folhas de
estilo XSLT e (2) apresenta novas possibilidades para o intercâmbio de dados que
favorecem a interoperabilidade entre diferentes aplicações de informática que comunicam
dados sobre recursos informacionais.
Palavras-chave: Conversão de registros. Padrões de metadados. Folhas de estilo XSLT.
Formatos MARC 21. MARCXML.
Abstract: Considering the existence of integrated library systems that do not use neither
MARC 21 Formats nor any other international metadata standard, this paper aims to
formulate a model for conversion of records created using different metadata standards and
encoded in Extensible Markup Language (XML) into MARC 21 records, by using
stylesheets created with Extensible Stylesheet Language for Transformation (XSLT). After
a literature review, we present the model and its process: mapping, formulation of the
conversion rules, XSLT stylesheet formulation and test, and record exporting and
conversion. As conclusions, we highlight that the model for record conversion (1) aims to
present a generalization and formalization of the processes and components needed for
record conversion using XSLT stylesheets and (2) presents new possibilities for the data
interchange and supports interoperability between and among different computer
applications that communicate data about information resources.
Keywords: Record conversion. Metadata standards. XSLT stylesheets. MARC 21 Formats.
MARCXML.
1 INTRODUÇÃO
Uma vez que suas preocupações podem ser de naturezas diversas (BORKO, 1968, p.
3; LE COADIC, 2004, p. 25), a Ciência da Informação busca aporte em campos com
15
Pesquisa desenvolvida com financiamento da Coordenação de Aperfeiçoamento de Pessoal de
Nível Superior (CAPES).
3182
especificidades que auxiliam em suas discussões. Assim, a Ciência da Informação mostrase como um campo interdisciplinar, relacionando-se com campos como a Biblioteconomia
e a Ciência da Computação (SARACEVIC, 1996; LE COADIC, 2004). Como apontado por
Alves (2010, p. 122), em razão de seu caráter interdisciplinar, a Ciência da Informação
utiliza-se, em parte, dos processos de tratamento descritivo da informação
(TDI) desenvolvidos na disciplina de Catalogação na área de
Biblioteconomia para solucionar os problemas inerentes a essa ciência:
tornar acessível e disponível a variedade crescente de recursos
informacionais, bem como promover uma melhora na recuperação desses
recursos.
A catalogação, entendida como “um processo de representação documentária que
desde a antiguidade atua como instrumento de acesso a informação e ao documento”
(PEREIRA; SANTOS, 1998, p. 123), busca “individualizar um item documentário e ao
mesmo tempo multidimensionar suas formas de acesso por meio de recursos tecnológicos”
(PEREIRA; SANTOS, 1998, p. 122).
No domínio bibliográfico, a partir da década de 1960 surgiram padrões de
metadados que, com as estruturas para a codificação, permitiram que os dados resultantes
das atividades de catalogação fossem processados e intercambiados entre aplicações de
informática. Atualmente, alguns dos principais padrões de metadados internacionalmente
utilizados para o intercâmbio de registros no domínio bibliográfico são os Formatos MARC
21.
Os registros criados com esses padrões, de modo geral, ainda são codificados com a
norma ISO 2709 (INTERNATIONAL ORGANIZATION FOR STANDARDIZATION,
2008), que define uma estrutura para a codificação semelhante àquela utilizada na década
de 1960. Além da ISO 2709, os Formatos MARC 21 dispõem hoje de estruturas para
codificação tecnologicamente mais vantajosas e mais condizentes com a atualidade, como é
caso da Extensible Markup Language (XML).
No Brasil, o suporte a importação e a exportação de registros nos Formatos MARC
21 tem se tornado uma característica buscada nos sistemas de gerenciamento de bibliotecas
(CAFÉ; SANTOS; MACEDO, 2001; CÔRTE et al., 1999; PARANHOS, 2004). No
entanto, em uma análise exploratória, observa-se a existência de sistemas que não
satisfazem esse requisito. Alguns desses sistemas, entre eles o Personal Home Library
(PHL), utilizam padrões de metadados próprios.
A não utilização de padrões de metadados internacionalmente aceitos, como os
Formatos MARC 21, reduz as possibilidades de intercâmbio de registros e pode ocasionar
conflitos durante a migração entre sistemas de gerenciamento de bibliotecas. Diante dos
3183
sistemas de gerenciamento de bibliotecas que não utilizam qualquer padrão de metadados
internacionalmente aceito, tem-se como problema a questão: como converter os registros
exportados por esses sistemas em registros nos Formatos MARC 21?
Observa-se que os sistemas de gerenciamento de bibliotecas que não utilizam
padrões de metadados internacionalmente aceitos têm, às vezes, seus padrões de metadados
próprios baseados nas tabelas de seus bancos de dados. Nesses casos, as diferenças entre os
bancos de dados dos sistemas inviabilizam a criação de uma aplicação de informática que
possa ser utilizada na conversão dos registros exportados a partir de diferentes bancos de
dados. Assim, para cada banco de dados diferente é necessário criar uma nova aplicação ou
modificar uma já existente, o que se mostra dispendioso (ZAFALON, 2012, p. 24, 27 e 28).
Por outro lado, as tecnologias atualmente disponíveis para a codificação trouxeram
novas possibilidades para a conversão de registros entre padrões de metadados. Uma dessas
tecnologias é a XML, que trouxe a possibilidade do uso de folhas de estilo elaboradas com
a linguagem Extensible Stylesheet Language for Transformation (XSLT) na transformação
de documentos XML de modo a atender distintos propósitos.
Considerando a provável efemeridade das aplicações de informática específicas para
a conversão dos registros de cada sistema e a possibilidade do uso de folhas de estilo XSLT
como instrumentos para a conversão, este trabalho tem por objetivo apresentar um modelo
para a conversão de registros de distintos padrões de metadados codificados com a XML
em registros nos Formatos MARC 21, tendo como um de seus pontos centrais a utilização
de folhas de estilo de transformação elaboradas com a linguagem XSLT.
2 PADRÕES DE METADADOS E CODIFICAÇÕES
Os instrumentos de descrição utilizados no domínio bibliográfico podem ser
categorizados de diversas formas. Entre as categorizações existentes, é utilizada aqui a
categorização desenvolvida por Picco e Ortiz Repiso (2012, p. 149) apresentada na
FIGURA 1.
3184
FIGURA 1 – Instrumentos do domínio bibliográfico
Fonte: Picco e Ortiz Repiso (2012, p. 149, tradução nossa).
As autoras consideram três principais níveis: um nível abstrato abrangendo os
modelos e os princípios do domínio bibliográfico; um nível de representação dos dados,
com os instrumentos destinados ao conteúdo das representações; e um nível relacionado às
aplicações de informática, compreendendo os formatos ou padrões de metadados e as
codificações.
Uns dos principais padrões de metadados utilizados no domínio bibliográfico são os
Formatos MARC 21. Um registro MARC 21, em qualquer um de seus formatos (para dados
bibliográficos, de itens, de autoridade, de classificação ou para informação comunitária),
envolve três componentes: a estrutura do registro, a designação do conteúdo e o conteúdo
(LIBRARY OF CONGRESS, 1996). Seguindo a categorização de Picco e Ortiz Repiso
(2012), a estrutura do registro é dada pela codificação, a designação do conteúdo é
provida pelo padrão de metadados e o conteúdo está de acordo com regras de catalogação e
vocabulários.
Enquanto padrão de metadados, cada Formato MARC 21 apresenta “um conjunto
predeterminado de metadados (atributos codificados ou identificadores de uma entidade)
metodologicamente construídos e padronizados” (ALVES, 2010, p. 47-48). Em cada
3185
Formato MARC 21, os metadados estão materializados nas designações de conteúdo, que
podem ser de três tipos: etiqueta de campo (composta por três caracteres numéricos),
indicador (composto por um caractere) ou código de subcampo (composto por um caractere
alfanumérico).
A codificação, que permite que os metadados e os valores a eles atribuídos sejam
processados por aplicações de informática, é entendida por Balby (1995, p. 31) como as
regras para a estruturação dos dados em meio legível por computador. Para a autora, as
codificações são definidas por normas, “conjuntos de regras, externos ao formato de
intercâmbio, que orientam a distribuição dos dados no meio físico de armazenamento (fita,
disquete etc.)”.
Os Formatos MARC 21 são derivados no Formato MARC, desenvolvido pela
Library of Congress (LC) na década de 1960. Uma vez que, em sua origem, o MARC tinha
entre seus objetivos possibilitar o intercâmbio de registros via fitas magnéticas, foi utilizada
com esse padrão uma codificação condizente com o tipo de suporte em questão, a fita
magnética.
A codificação de caráter sequencial utilizada com o MARC foi reconhecida
primeiramente nos Estados Unidos como um padrão nacional, posteriormente, em 1981, foi
reconhecida pela International Organization for Standardization (ISO) como a norma ISO
2709: Documentation – Format for bibliographic information interchange on magnetic
tape (INTERNATIONAL ORGANIZATION FOR STANDARDIZATION, 2008).
Apesar da norma ISO 2709 ter sido atualizada no decorrer dos anos, nota-se que não
houve mudanças substanciais na codificação, de modo que os registros nos atuais Formatos
MARC 21 são, em sua maior parte, codificados quase que da mesma forma com que eram
codificados os registros na década de 1960, seja para propósitos de recuperação, por
exemplo, via protocolo Z39.50, de importação e de exportação entre sistemas de
gerenciamento de bibliotecas ou de armazenamento em bancos de dados.
O desenvolvimento das tecnologias de informática trouxe, além de outros suportes
para o armazenamento e posterior intercâmbio de registros, outros ambientes digitais, como
a Web. Com vistas ao uso das tecnologias de informática nos processos de catalogação,
buscaram-se alternativas à codificação tradicionalmente utilizada com os registros nos
Formatos MARC 21.
Algumas alternativas foram buscadas pela LC, que, na década de 1990, iniciou
estudos sobre a utilização da Standard Generalized Markup Language (SGML) na
codificação de registros. Com o surgimento da XML, a LC voltou-se para essa tecnologia e,
3186
em 2002, lançou o MARC 21 XML Schema, mais conhecido como MARCXML: esquema
XML que apresentava uma forma de codificação de registros MARC 21 utilizando a XML
(LIBRARY OF CONGRESS, 2004, 2014).
A linguagem de marcação MARCXML foi pautada em uma série de considerações:
ser um esquema simples e flexível para a codificação de registros MARC com a XML; não
causar perdas no conteúdo quando os registros são convertidos a partir de registros ISO
2709; permitir a recriação de registros ISO 2709 a partir de registros MARCXML; facilitar
a apresentação, a edição e a conversão dos dados por meio de folhas de estilo; permitir a
validação dos registros; e facilitar a criação de ferramentas para a utilização, manipulação e
conversão de registros MARC (LIBRARY OF CONGRESS, 2004).
3 CONVERSÃO RETROSPECTIVA E REUTILIZAÇÃO DE METADADOS
Em relação à conversão de registros no domínio bibliográfico, a literatura apresenta
estudos e relatos que podem ser classificados em dois principais tipos: a conversão
retrospectiva e a reutilização de metadados (repurposing metadata).
A conversão retrospectiva envolve a inserção dos dados de registros analógicos, de
modo geral presentes em fichas catalográficas, em registros digitais (ASENSI ARTIGA;
RODRÍGUEZ MUÑOZ, 2001; CASTRO, 2003; OLIVEIRA et al., 1998). Segundo
Bowman (2007, p. 331), a conversão retrospectiva tem acompanhado a catalogação desde o
início da automação de bibliotecas, o que ocorreu a partir da década de 1960 com a criação
do Formato MARC e dos padrões dele derivados.
Devido à ampla utilização de sistemas digitais de gerenciamento de bibliotecas e de
outras aplicações de informática destinadas ao gerenciamento, ao armazenamento e/ou à
disseminação de recursos informacionais, por exemplo, os repositórios e as bibliotecas
digitais, a literatura sobre conversão passou a preocupar-se não somente com a conversão
retrospectiva (do analógico para o digital), mas também com a conversão dos registros já
presentes no ambiente digital. Dada à existência de diversos padrões de metadados, tornouse necessário converter os registros criados com um padrão em registros de acordo com
outros padrões, por exemplo, para possibilitar o intercâmbio ou a migração desses registros
entre sistemas que não adotam o mesmo padrão (ASENSI ARTIGA; RODRÍGUEZ
MUÑOZ, 2001; RUDIĆ; SURLA, 2009; SCHMIDT; PATEL, 1999). Esse tipo de
conversão tem sido chamado de reutilização de metadados e sua necessidade estende-se
ainda mais devido a diversidade de padrões internacionais, nacionais e locais (WOODLEY,
2008).
3187
Para Woodley (2008, p. 6), o processo de reutilização de metadados compreende um
amplo conjunto de atividades: converter ou transformar registros de um padrão de
metadados para outro; migrar de um padrão legado para outro; integrar registros criados de
acordo com diferentes padrões; e coletar ou agregar registros criados utilizando um padrão
compartilhado pela comunidade ou diversos padrões.
Na literatura são encontrados relatos e estudos sobre a reutilização de metadados
tanto no contexto dos catálogos dos sistemas de gerenciamento de bibliotecas, quanto em
outros ambientes informacionais, tais como os repositórios institucionais.
Averkamp e Lee (2009) apresentam um workflow para a reutilização dos metadados
de teses e de dissertações, oriundos da base de dados ProQuest UMI Dissertation
Publishing, na criação de registros para inserção em um repositório institucional e em um
catálogo de biblioteca. Keenan (2010) relata a reutilização de registros no padrão Dublin
Core da base de dados U.S. Congressional Serial Set, 1817-1994 para a criação de registros
bibliográficos no Formato MARC 21, visando à inserção desses em um catálogo de
biblioteca. Essa base de dados oferece aos seus assinantes os registros em Dublin Core sem
qualquer custo adicional, ao passo que vende seus registros no Formato MARC 21. A
reutilização dos metadados nesse caso resultou em uma significativa redução dos custos, se
comparada à compra dos registros já no Formato MARC 21. 16
Na literatura brasileira são encontrados estudos e relatos sobre a conversão
retrospectiva (CASTRO, 2003; DIAS, 1999; PEREZ; LIMA, 2002) e sobre a reutilização
de metadados (BOICA; OLIVEIRA, 2008; MURAKAMI, 2012; RAPOSO; OLIVEIRA;
SHINOTSUKA, 1985).17 Este estudo, partindo da necessidade de converter registros
presentes em ambientes digitais, é considerado do tipo reutilização de metadados e seu
principal resultado, um modelo para a conversão de registros, é apresentado na seção
seguinte.
4 MODELO PARA A CONVERSÃO DE REGISTROS
Como abordado, a necessidade de converter registros digitais no domínio
bibliográfico relaciona-se à utilização dos dados em uma aplicação de informática diferente
daquela da qual os dados proveem, sendo necessário, portanto, considerar na conversão os
16
17
Segundo Keenan (2010), o custo estimado para a compra e a inserção dos registros seria de
US$ 25.669,71, enquanto que o custo da reutilização foi de US$ 1.129,05, incluindo o tempo
gasto pela equipe da biblioteca no planejamento, na pesquisa e no desenvolvimento de scripts.
Os estudos sobre a reutilização de metadados, principalmente os nacionais, não empregam essa
denominação. Em vez disso, utilizam apenas os termos conversão ou migração.
3188
padrões de metadados e as codificações aceitas pela aplicação de informática que receberá
os registros.
Em razão da ampla utilização da ISO 2709 para o intercâmbio de dados no domínio
bibliográfico, algumas aplicações de informática, principalmente do tipo sistema de
gerenciamento de bibliotecas, possibilitam a importação de registros MARC 21 apenas se
codificados de acordo com tal norma. Outras aplicações, no entanto, permitem a importação
de registros MARC 21 apenas se codificados com a XML e seguindo o MARCXML.
Considerando essas duas situações, o modelo para a conversão de registros foi
elaborado diante da seguinte necessidade: registros de acordo com um padrão de metadados
qualquer codificados com a XML precisam ser convertidos em registros em um dos
Formatos MARC 21, codificados com a XML (MARCXML) ou com a ISO 2709.
Uma vez que os registros de origem estarão codificados com a XML e os registros
de destino poderão também estar codificados com essa tecnologia, foi incluída no modelo
uma folha de estilo criada com a Extensible Stylesheet Language for Transformation
(XSLT).
A linguagem XSLT pode ser utilizada na criação de folhas de estilo (documentos
com regras que deverão ser executadas por uma aplicação de informática específica) para a
transformação de um documento XML que está de acordo com uma linguagem de
marcação em um documento XML de acordo com outra linguagem de marcação ou mesmo
em um documento que não seja XML (RAY, 2001; TIDWELL, 2008; W3C, 2007).
Eito Brun (2008, p. 95) destaca a importância da XSLT para as situações em que a
XML é utilizada para transferir e intercambiar dados estruturados com diferentes esquemas,
ou seja, com diferentes linguagens de marcação. Tais situações requerem uma tecnologia
que permita transformar os documentos baseados em um esquema em outro diferente. Para
essa transformação uma “folha de estilo XSLT estabelecerá as equivalências entre os
elementos e os atributos do esquema em que estão os documentos XML e os elementos e os
atributos do esquema ao qual se deseja converter” (EITO BRUN, 2008, p. 95, tradução
nossa).
A utilização de folhas de estilo XSLT na conversão de registros é relatada em alguns
estudos internacionais que consistem, principalmente, em relatos demonstrando os
procedimentos e os instrumentos utilizados (KEITH, 2004; KEENAN, 2010; KURTH;
RUDDY; RUPP, 2004; RUDIĆ; SURLA, 2009). Sobre a literatura nacional, concorda-se
com os apontamentos realizados por Zafalon (2012, p. 22) de que,
Na literatura nacional, diagnósticos e situações de conversão de bases de
dados são relatados no sentido de apresentar as experiências e os
3189
procedimentos metodológicos utilizados em diversas instituições. Estas
publicações, de certa forma, tendem a deixar de explicitar as concepções
de ordem teórico-metodológica envolvidas nesse processo.
Apesar de, de modo geral, apresentarem sequências de procedimentos e conjuntos
de instrumentos mais ou menos semelhantes, nota-se nos estudos sobre a conversão de
registros pouca ou nenhuma sistematização de um modelo ou de uma estrutura teóricometodológica que compreenda os procedimentos e os instrumentos que comumente
relacionam-se à conversão. Assim, para suprir essa lacuna e auxiliar na conversão de
registros para os Formatos MARC 21, é apresentado na FIGURA 2 o modelo para a
conversão de registros resultado deste estudo.
FIGURA 2 – Modelo para a conversão de registros
Fonte: Elaborada pelo autor
3190
O modelo apresentado na FIGURA 2 é sintetizado da seguinte forma:
a documentação do padrão de metadados de origem, a documentação do Formato
MARC 21 de destino, as regras de catalogação, os vocabulários e as convenções são
utilizados no mapeamento, que tem como resultado um mapa indicando as
correspondências existentes entre os metadados dos padrões de origem e de destino;
as correspondências indicadas no mapa são redigidas como regras de conversão;
as regras de conversão, a documentação da codificação do padrão de metadados de
origem com a XML e a documentação do MARCXML são utilizadas na elaboração
da folha de estilo XSLT;
durante a elaboração da folha de estilo XSLT são realizadas a verificação sintática, a
verificação do padrão de metadados e a verificação do conteúdo:
um editor XML realiza a verificação sintática com base no esquema do
MARCXML, assegurando que os registros obtidos a partir da conversão utilizando a
folha de estilo estão em acordo com o MARCXML;
um agente humano realiza a verificação do padrão de metadados, com base na
documentação do Formato MARC 21, e a verificação do conteúdo, com base nas
regras de catalogação, nos vocabulários e nas convenções, assegurando, assim, que
os registros obtidos a partir da conversão estão de acordo com o padrão de
metadados de destino e com os instrumentos de descrição;
a folha de estilo XSLT já finalizada é inserida no processador de transformação;
os registros de origem são exportados a partir do sistema de gerenciamento de
bibliotecas e inseridos no processador de transformação;
o processador transforma os registros de origem em registros no Formato MARC 21
codificados de acordo com o MARCXML.
Para uma maior elucidação do modelo apresentado na Figura 2 seus processos e
seus componentes são descritos nas seções seguintes.
4.1 Mapeamento e elaboração das regras de conversão
O processo de estabelecer os relacionamentos entre metadados semanticamente
equivalentes em diferentes padrões é denominado na literatura como mapeamento (mapping
ou crosswalking). O resultado do mapeamento é chamado de mapa (map ou crosswalk) e
consiste em uma representação visual dos relacionamentos, das equivalências e das lacunas
entre os padrões de metadados mapeados (KURTH; RUDDY; RUPP, 2004, p. 154; ST.
PIERRE; LAPLANT, 1998; WOODLEY, 2008, p. 3).
3191
St. Pierre e LaPlant (1998) destacam que o mapeamento inclui um mapa semântico e
especificações para a conversão que indicam as transformações requeridas para converter o
conteúdo do registro do padrão de origem em um registro de acordo com o padrão de
destino.
Rudić e Surla (2009, p. 952) apontam que uma descrição de conversão pode conter
uma tabela e regras de conversão. Essa tabela de conversão é o mapa, e as regras de
conversão são as “especificações para a conversão” (ST. PIERRE; LAPLANT, 1998).
Para Machovec (2002, p. 2), o mapeamento entre quaisquer padrões não será
perfeito e será mais ou menos bem sucedido dependendo dos padrões mapeados. Um dos
fatores que influenciam o mapeamento e o sucesso da conversão é o nível de granularidade
dos padrões de metadados mapeados (MACHOVEC, 2002, p. 1), portanto, esse é um
importante aspecto a ser levado em conta.
Segundo Alves, Simionato e Santos (2012, p. 3), o termo granularidade tem origem
na Ciência da Computação, porém passa ser utilizado também no universo bibliográfico
para referir-se aos níveis de detalhe em que um recurso informacional pode ser descrito.
Para as autoras, a granularidade é dividida em dois níveis: a granularidade fina (finegranularity), quando a descrição apresenta um alto nível de detalhamento, e a granularidade
grossa (coarse-granularity), quando a descrição possui um baixo nível de detalhamento.
Woodley (2008, p. 7) destaca que os metadados no padrão de origem podem não
estar bem definidos ou podem conter uma mistura de dados que, no padrão de destino,
podem estar em diferentes campos. Nesses casos, a identificação de um dado dentro do
conteúdo de um metadado pode não ser possível, pode requerer a manipulação dos dados
diversas vezes, ser difícil, demorado e repleto de erros (MACHOVEC, 2002, p. 2;
WOODLEY, 2008, p. 7).
Considerando os diferentes níveis de granularidade entre os padrões, as
correspondências do tipo um-para-muitos e muitos-para-um são frequentes. Woodley
(2008, p. 7) destaca a falta de correspondências perfeitas entre os metadados, o que requer o
estabelecimento de correspondências entre metadados com significados próximos.
Algum metadado do padrão de origem pode não possuir correspondente no padrão
de destino, ocasionando no descarte de seu conteúdo durante a conversão. Situações
inversas também são possíveis: algum metadado do padrão de destino pode não ter um
correspondente no padrão de origem. Nesses casos, se o metadado não é obrigatório, pode
ser deixado em branco, caso seja obrigatório, é necessário prover o conteúdo do mesmo, por
3192
exemplo, por meio de um valor padrão (default) (MACHOVEC, 2002; ST. PIERRE;
LAPLANT, 1998).
Outro ponto a ser observado, segundo St. Pierre e LaPlant (1998), são as
propriedades dos metadados do padrão de origem e do padrão de destino, por exemplo,
obrigatoriedade, repetitividade e tipo de dado.
Apesar dos padrões de metadados existirem de forma independente dos
instrumentos de descrição (regras de catalogação, vocabulários e convenções) e vice-versa,
observa-se que os padrões de metadados, em razão do conjunto de metadados de que
dispõem e do modo com que tais metadados estão arranjados, condicionam a utilização dos
instrumentos de descrição, e, em decorrência da oferta de mais ou de menos possibilidades
que aquelas previstas pelos instrumentos de descrição, influenciam o modo com que os
dados são registrados. Assim, entendendo que o modo com que um dado é registrado em
um padrão pode diferir do modo como que o mesmo dado é registrado em outro, é
necessário considerar no mapeamento os instrumentos de descrição utilizados na criação
dos registros a serem convertidos.
Durante a elaboração do mapa e após a sua finalização, devem ser redigidas regras
de conversão de modo a facilitar a criação da folha de estilo XSLT pelo profissional da
Ciência da Computação. Essas regras são redigidas em linguagem natural indicando os
relacionamentos fornecidos no mapa e, opcionalmente, provendo orientações sobre os
instrumentos de descrição utilizados na criação dos registros de origem.
A importância dessas regras está no fato de que o profissional da Ciência da
Computação pode não possuir o conhecimento suficiente dos padrões de metadados e dos
instrumentos de descrição para interpretar o mapa.
4.2 Elaboração da folha de estilo XSLT
Além do mapa e das regras de conversão, para a elaboração da folha de estilo é
necessário (1) escolher um editor XML, um processador de transformação e a versão da
XSLT, e (2) conhecer as especificações das linguagens de marcação dos padrões de
metadados de origem e de destino, além do conhecimento de XSLT. Essas especificações
definem o modo com que os metadados compreendidos pelos padrões e os valores a eles
atribuídos são expressos na XML.
A especificação da linguagem de marcação utilizada com o padrão de metadados de
origem nem sempre está disponível em uma Document Type Definition (DTD) ou em
esquema XML, ou mesmo acessível ao profissional usuário do sistema de gerenciamento de
bibliotecas. Nesses casos, uma possibilidade é apreender a estrutura definida pela
3193
linguagem de marcação a partir dos documentos XML que estão de acordo com ela, ou seja,
a partir da análise dos registros exportados em XML.
A elaboração da folha de estilo compreende principalmente dois passos:
a inclusão da declaração XML, a inclusão do elemento do documento dentro do qual
será inserido todo o conteúdo da folha de estilo, e a inclusão das declarações dos
namespaces;
a elaboração das regras de transformação com base no mapa e nas regras de
conversão.
As regras de transformação selecionam e manipulam os elementos e os conteúdos
do documento de entrada fazendo com que sejam organizados e/ou transformados para se
adequarem aos elementos do documento de saída; algumas das ações realizadas pelas regras
de transformação são:
incluir o conteúdo de um elemento em um elemento de saída;
reunir o conteúdo de dois ou mais elementos para formar o conteúdo de um
elemento de saída;
separar o conteúdo de um elemento e distribuí-lo entre dois ou mais elementos de
saída;
editar o conteúdo de um elemento (substituir, acrescentar ou remover caracteres)
para formar o conteúdo de um elemento de saída;
criar um elemento de saída com um conteúdo que não pôde ser obtido a partir do
documento de entrada;
incluir, reunir, separar, editar e criar elementos e conteúdos com base em condições.
4.3 Verificação da folha de estilo
Durante a elaboração da folha de estilo, é necessário verificar os registros resultantes
da conversão para checar se estão de acordo com o resultado esperado. A verificação busca
assegurar que os registros convertidos com a folha de estilo estão de acordo com o
MARCXML, com o padrão de metadados (um dos Formatos MARC 21) e com os
instrumentos de descrição. Assim, a verificação inclui três etapas que proveem um feedback
indicando se há ou não a necessidade de modificações no mapa, nas regras de conversão
e/ou na folha de estilo:
verificação sintática: realizada por editores XML, é a análise do registro
MARCXML para verificar se o mesmo está de acordo com a linguagem de
marcação MARCXML;
3194
verificação do padrão de metadados: é a análise das designações do conteúdo
(etiquetas, indicadores e códigos de subcampo) presentes nos registros convertidos
para verificar se estão de acordo com o padrão de metadados;
verificação do conteúdo: é a confrontação dos dados presentes nos registros
convertidos com as regras de catalogação, os vocabulários e as convenções
utilizadas pela instituição; tem por objetivo checar a adequação dos registros aos
instrumentos de descrição, mostrando se o resultado da conversão atende ou não aos
requisitos de qualidade definidos nesses instrumentos.
4.4 Exportação e conversão dos registros
Entre os processos do modelo, a exportação dos registros é o mais dependente do
sistema de gerenciamento de bibliotecas. Para a utilização do modelo proposto é necessário
que os registros exportados estejam codificados com a XML, não importando qual seja a
linguagem de marcação ou o padrão de metadados utilizado com essa codificação. Assim,
se os registros não estão codificados com a XML e não há qualquer possibilidade de assim
codificá-los, o modelo para a conversão de registros não poderá ser aplicado tal como foi
elaborado.
Entende-se que a exportação pode ocorrer de dois modos. O primeiro é por meio de
uma interface, seja ela gráfica ou não, provida pelo sistema de gerenciamento de
bibliotecas. Um segundo modo ocorre quando o sistema não oferece uma interface de
exportação, mas é possível acessar sua base de dados por meio do sistema de gerenciamento
de banco de dados e, então, exportar os registros codificados com a XML.
Com a folha de estilo XSLT elaborada e os registros exportados, o próximo
processo é converter os registros do padrão de metadados de origem codificados com a
XML em registros no Formato MARC 21 de acordo com o MARCXML. Os componentes
necessários a essa conversão são: a folha de estilo XSLT, um processador de transformação
compatível com a versão da XSLT utilizada na folha de estilo e o documento XML
contendo os registros exportados.
De modo geral, a folha de estilo XSLT e o documento XML contendo os registros
exportados são inseridos no processador que, a partir de algum comando, inicia a
transformação. Ao final da transformação, o processador gera um documento XML
contendo os registros convertidos de acordo com o MARCXML.
A conversão dos registros MARCXML para ISO 2709 é um processo opcional,
realizado somente quando é necessário obter registros nos Formatos MARC 21 codificados
3195
com a ISO 2709. Para essa segunda conversão pode ser utilizada a aplicação
disponibilizada pela LC18 ou a que acompanha a suíte de aplicativos gratuita MarcEdit 19,
entre outras.
Para a validação do modelo elaborado, realizou-se sua aplicação na conversão de
registros bibliográficos exportados pelo sistema de gerenciamento de bibliotecas Personal
Home Library (PHL). Os procedimentos utilizados na aplicação do modelo e os resultados
obtidos são detalhados em Assumpção (2013, p. 81-101).
5 CONSIDERAÇÕES FINAIS
A existência de sistemas de gerenciamento de bibliotecas que não possibilitam a
exportação dos dados nos Formatos MARC 21 e nem em qualquer padrão de metadados
internacionalmente utilizado, fomenta a necessidade de estudos sobre a reutilização de
metadados. Essa necessidade está pautada na consideração de que as instituições usuárias
desses sistemas, por não disporem de seus registros de acordo com padrões de metadados
internacionalmente aceitos, poderão estar impossibilitadas de participarem de programas de
catalogação cooperativa e estarão sujeitas a problemas e a retrabalhos durante a migração
entre sistemas de gerenciamento de bibliotecas.
Diante dessa consideração, o objetivo deste estudo foi elaborar um modelo para a
conversão de registros de distintos padrões de metadados codificados com a XML em
registros nos Formatos MARC 21, tendo como um dos pontos centrais do modelo a
utilização de folhas de estilo de transformação elaboradas com a linguagem XSLT.
Sobre o modelo elaborado e sua aplicação na conversão de registros bibliográficos
do sistema PHL, são traçadas as seguintes considerações:
o modelo busca apresentar uma generalização e uma formalização dos processos e
dos componentes necessários à conversão de registros em XML utilizando folhas de
estilo XSLT, processos e componentes estes até então dispersos na literatura e
abordados no contexto de realidades individuais;
nos ambientes digitais, a conversão de registros não deve ser uma tarefa realizada
apenas por profissionais da Ciência da Informação ou apenas da Ciência da
Computação. A Ciência da Informação possui o conhecimento dos padrões de
metadados e dos instrumentos de descrição, portanto, tem a competência necessária
para traçar mapas estabelecendo correspondências entre os metadados de diferentes
18
19
Disponível em: <http://www.loc.gov/standards/marcxml/>. Acesso em: 6 jul. 2014.
Disponível em: <http://marcedit.reeset.net>. Acesso em: 6 jul. 2014.
3196
padrões, ao passo que à Ciência da Computação cabe a transposição dos mapas para
aplicações de informática que, manipulando os registros do padrão de metadados de
origem, possam convertê-los para o padrão de metadados de destino. Nesse sentido,
o modelo proposto é uma tentativa de delineamento dos papéis exercidos pelos
profissionais dessas áreas durante as atividades de conversão de registros;
entre os fatores que interferem no tempo demandado na elaboração de uma folha de
estilo XSLT estão a complexidade dos padrões de origem e de destino, incluindo o
número de campos/subcampos, a especificidade e o nível de granularidade dos
padrões, e o quão mínima é a perda de dados tolerada;
o grau de complexidade das instruções da folha de estilo relaciona-se diretamente à
perda de dados na conversão. Quanto maior a manipulação (junção, separação,
substituição, etc.) dos dados do documento XML de origem, melhor esses dados
poderão ser alocados no padrão de metadados de destino;
em razão das diferenças entre os padrões de origem e de destino, após a conversão,
pode ser necessário completar ou modificar os registros convertidos, o que deve ser
levado em conta pelas instituições em seus planos para conversão; e
ao considerar o tempo demandado na elaboração da folha de estilo, deve ser levada
em conta a quantidade de registros que serão convertidos, de modo a melhor
ponderar sobre a relação custo-benefício da conversão utilizando o modelo.
A proposição inicial desta pesquisa era a elaboração de um modelo para a conversão
que favorecesse o intercâmbio de registros e minimizasse os conflitos durante a migração
de registros de sistemas que não utilizam padrões de metadados internacionalmente aceitos.
Os resultados obtidos com a utilização do modelo são registros em um dos Formatos
MARC 21 e codificados com a XML seguindo o MARCXML. Tais registros podem ser
codificados com a ISO 2709 de modo a atender a uma necessidade específica, por exemplo,
a importação em um sistema de gerenciamento de bibliotecas. No entanto, uma vez que os
registros convertidos estão de acordo com o MARCXML, uma ampla gama de
possibilidades passa a existir, principalmente devido às possibilidades trazidas pela XML (a
utilização de folhas de estilo XSLT na transformação de documentos é uma dessas
possibilidades) e ao papel que os Formatos MARC 21 podem desempenhar como padrões
capazes de intermediar a troca de registros entre diferentes padrões de metadados no
domínio bibliográfico.
Ou seja, além de prover uma solução para o problema de como converter os
registros exportados em registros nos Formatos MARC 21, esta pesquisa apresentou novas
3197
possibilidades para o intercâmbio de dados que favorecem a interoperabilidade entre
diferentes aplicações de informática que comunicam dados sobre recursos informacionais.
Nesse sentido, observa-se que, apesar de estar voltado ao contexto dos Formatos MARC 21,
o modelo elaborado pode ser aplicado na conversão de registros para outros padrões de
metadados, sendo essa possibilidade uma consideração a respeito da aplicação do modelo
em outras comunidades além da comunidade de bibliotecas.
Por fim, cabe ressaltar que este estudo não defende que o profissional da Ciência da
Informação seja um especialista na construção de folhas de estilo, mas sim que tal
profissional tenha conhecimento das tecnologias desenvolvidas na Ciência da Computação
que possam ser úteis às suas atividades, favorecendo, assim, o uso estratégico dessas
tecnologias em prol do desenvolvimento e do gerenciamento de ambientes informacionais
digitais.
REFERÊNCIAS
ALVES, R. C. V. Metadados como elementos do processo de catalogação. 2010. 132f.
Tese (Doutorado em Ciência da Informação) – Faculdade de Filosofia e Ciências,
Universidade Estadual Paulista, Marília, 2010. Disponível em:
<http://base.repositorio.unesp.br/handle/unesp/103361>. Acesso em: 7 jul. 2014.
ALVES, R. C. V.; SIMIONATO, A. C.; SANTOS, P. L. V. A. da C. Aspectos de
granularidade na representação da informação no universo bibliográfico. In: ENCONTRO
NACIONAL DE CATALOGADORES, 1., 2012, Rio de Janeiro. Trabalhos... Rio de
Janeiro: Fundação Biblioteca Nacional, 2012. Disponível em:
<http://pt.scribd.com/doc/109274547/Aspectos-de-granularidade-na-representacao-dainformacao-no-universo-bibliografico>. Acesso em: 6 jul. 2014.
ASENSI ARTIGA, V.; RODRÍGUEZ MUÑOZ, J. V. El processo de catalogación
automatizada. In: PINTO MOLINA, M. (Org.). Catalogación de documentos: teoria y
práctica. 2. ed. rev. e atual. Madrid: Síntesis, 2001. p. 105-143.
ASSUMPÇÃO, F. S. Conversão de registros em XML para MARC 21: um modelo
baseado em folhas de estilo XSLT. 135 f. Dissertação (Mestrado em Ciência da
Informação) – Faculdade de Filosofia e Ciências, Universidade Estadual Paulista, Marília,
2013. Disponível em: <http://base.repositorio.unesp.br/handle/unesp/93658>. Acesso em:
14 maio 2014.
AVERKAMP, S.; LEE, J. Repurposing ProQuest Metadata for Batch Ingesting ETDs into
an Institutional Repository. Code4Lib Journal, n. 7, 2009. Disponível em:
<http://journal.code4lib.org/articles/1647>. Acesso em: 6 jul. 2014.
BALBY, C. N. Formatos de intercâmbio de registros bibliográficos: conceitos básicos.
Cadernos da F.F.C., v. 4, n. 1, p. 29-35, 1995.
BOICA, A. L.; OLIVEIRA, L. H. M. de. Conversão de metadados do padrão Dublin Core
para o RDF. Global Science and Technology, v. 1, n. 2, p. 8-13, dez./mar. 2008.
3198
Disponível em: <http://rioverde.ifgoiano.edu.br/periodicos/index.php/gst/article/view/13>.
Acesso em: 6 jul. 2014.
BORKO, H. Information Science: what is it? American Documentation, v. 19, n. 1, p. 3-5,
1968.
BOWMAN, J. H. Retrospective conversion: The early years. Library History, v. 23, p.
331-340, Dec. 2007. <http://dx.doi.org/10.1179/174581607x254811>. Acesso em: 06 jul.
2014.
CAFÉ, L.; SANTOS, C. dos; MACEDO, F. Proposta de um método para escolha de
software de automação de bibliotecas. Ciência da Informação, v. 30, n. 2, p. 70-79,
maio/ago. 2001. Disponível em: <http://dx.doi.org/10.1590/S0100-19652001000200009>.
Acesso em: 6 jul. 2014.
CASTRO, F. F. de. Conversão retrospectiva de registros bibliográficos. In: CONGRESSO
BRASILEIRO DE CIÊNCIAS DA COMUNICAÇÃO, 24., 2003, Belo Horizonte. Anais...
São Paulo: Intercom, 2003. Disponível em:
<http://www.portcom.intercom.org.br/navegacaoDetalhe.php?option=trabalho&id=42503>.
Acesso em: 6 jul. 2014.
CÔRTE, A. R. et al. Automação de bibliotecas e centros de documentação: o processo de
avaliação e seleção de softwares. Ciência da Informação, v. 28, n. 3, p. 241-256, set./dez.
1999. Disponível em: <http://dx.doi.org/10.1590/S0100-19651999000300002>. Acesso em:
06 jul. 2014.
DIAS, M. do R. I. Catalogação e qualidade: breve estudo. Marília: UNESP/CGB, 1999.
EITO BRUN, R. Lenguajes de marcas para la gestión de recursos digitales:
aproximación técnica, especificaciones y referencia. Gijón: Trea, 2008.
INTERNATIONAL ORGANIZATION FOR STANDARDIZATION. ISO 2709:2008:
Abstract. Geneva, 2008. Disponível em:
<http://www.iso.org/iso/iso_catalogue/catalogue_tc/catalogue_detail.htm?csnumber=41319
>. Acesso em: 6 jul. 2014.
KEENAN, T. M. Why Purchase When You Can Repurpose? Using Crosswalks to Enhance
User Access. Code4Lib Journal, n. 11, 2010. Disponível em:
<http://journal.code4lib.org/articles/3604>. Acesso em: 6 jul. 2014.
KEITH, C. Using XSLT to manipulate MARC metadata. Library Hi Tech, v. 22, n. 2, p.
122-130, 2004. Disponível em: <http://dx.doi.org/10.1108/07378830410524549>. Acesso
em: 6 jul. 2014.
KURTH, M.; RUDDY, D.; RUPP, N. Repurposing MARC metadata: using digital project
experience to develop a metadata management design. Library Hi Tech, v. 22, n. 2, p.
153-165, 2004. Disponível em: <http://dx.doi.org/10.1108/07378830410524585>. Acesso
em: 6 jul. 2014.
LE COADIC, Y-F. A ciência da informação. 2. ed. Brasília: Briquet de Lemos, 2004.
LIBRARY OF CONGRESS. MARC 21 XML Schema: official web site. Washington,
D.C., 2014. Disponível em: <http://www.loc.gov/standards/marcxml/>. Acesso em: 6 jul.
2014.
3199
LIBRARY OF CONGRESS. MARC XML Design Considerations. Washington, D.C.,
2004. Disponível em: <http://www.loc.gov/standards/marcxml/marcxml-design.html>.
Acesso em: 6 jul. 2014.
LIBRARY OF CONGRESS. The MARC 21 Formats: Background and Principles.
Revised November 1996. Washington, D.C.: Library of Congress, 1996. Disponível em:
<http://www.loc.gov/marc/96principl.html>. Acesso em: 6 jul. 2014.
MACHOVEC, G. S. Challenges and issues with metadata crosswalks. Information
Intelligence Online Libraries and Microcomputers, v. 20, n. 4, p. 1-3, Apr. 2002.
MURAKAMI, T. Migração de registros de uma Tabela para o MARC21. In:
BIBLIOTECÁRIOS sem fronteiras. [S.l.: s.n.], 2012. Disponível em:
<http://bsf.org.br/2012/01/16/migracao-de-registros-de-uma-tabela-para-o-marc21>.
Acesso em: 6 jul. 2014.
OLIVEIRA, N. M. et al. Compact Disc Catalonging - CatCD: análise de um instrumento
para conversão retrospectiva no Sistema de Bibliotecas da UNICAMP. Perspectivas em
Ciência da Informação, v. 3, n. 1, p. 41-46, jan./jun. 1998. Disponível em:
<http://portaldeperiodicos.eci.ufmg.br/index.php/pci/article/view/608>. Acesso em: 6 jul.
2014.
PARANHOS, W. M. M. da R. Fragmentos metodológicos para projetos e execução de
gestão informatizada de coleções de documentos e serviços em bibliotecas. Encontros
BIBLI, n. esp., p. 14-32, 2º sem. 2004. Disponível em:
<https://periodicos.ufsc.br/index.php/eb/article/view/15182924.2004v9nesp2p14http://www.loc.gov/marc/96principl.html>. Acesso em: 6 jul. 2014.
PEREIRA, A. M.; SANTOS, P. L. V. A. da C. O uso estratégico das tecnologias em
catalogação. Cadernos da F.F.C., v. 7, n. 1/2, p. 121-131, 1998.
PEREZ, D. R.; LIMA, P. O projeto de conversão retrospectiva de registros bibliográficos:
uma experiência do sistema de bibliotecas da Pontifícia Universidade Católica do Rio de
Janeiro. In: SEMINÁRIO NACIONAL DE BIBLIOTECAS UNIVERSITÁRIAS, 12.,
2002, Recife. Anais... Recife: UFPE, 2002. Disponível em:
<http://alfarrabiosroger.files.wordpress.com/2009/12/37-a.pdf>. Acesso em: 6 jul. 2014.
PICCO, P.; ORTIZ REPISO, V. RDA, el nuevo código de catalogación: cambios y desafíos
para su aplicación. Revista Española de Documentación Científica, v. 35, n. 1, p. 145173, enero-marzo 2012. Disponível em: <http://dx.doi.org/10.3989/redc.2012.1.848>.
Acesso em: 6 jul. 2014.
RAPOSO, M. de F. P.; OLIVEIRA, V. L. S. de; SHINOTSUKA, F. H. Mudança para o
formato CALCO: uma experiência. Revista de Biblioteconomia de Brasília, v. 13, n. 1, p.
21-26, jan./jun. 1985.
RAY, E. T. Aprendendo XML. Rio de Janeiro: Campus, 2001.
RUDIĆ, G.; SURLA, D. Conversion of bibliographic records to MARC 21 format. The
Electronic Library, v. 27, n. 6, p. 950-967, 2009. Disponível em:
<http://dx.doi.org/10.1108/02640470911004057>. Acesso em: 6 jul. 2014.
SARACEVIC, T. Ciência da informação: origem, evolução e relações. Perspectivas em
Ciência da Informação, v. 1, n. 1, p. 41-62, jan./jun. 1996. Disponível em:
3200
<http://portaldeperiodicos.eci.ufmg.br/index.php/pci/article/view/235>. Acesso em: 6 jul.
2014.
SCHMIDT, N.; PATEL, A. MARC record conversion: a generalized approach. Computer
Standards & Interfaces, v. 21, p. 287-297, 1999. Disponível em:
<http://dx.doi.org/10.1016/S0920-5489(99)00007-0>. Acesso em: 6 jul. 2014.
ST. PIERRE, M.; LAPLANT, W. P. Issues in Crosswalking Content Metadata
Standards. Baltimore: National Information Standards Organization, 1998. Disponível em:
<http://www.niso.org/publications/white_papers/crosswalk>. Acesso em: 6 jul. 2014.
TIDWELL, D. XSLT. 2nd ed. Beijing: O'Reilly, 2008.
W3C. XSL Transformations (XSLT) Version 2.0: W3C Recommendation 23 January
2007. Cambridge, 2007. Disponível em: <http://www.w3.org/TR/xslt20>. Acesso em: 6 jul.
2014.
WOODLEY, M. S. Crosswalks, Metadata Harvesting, Federated Searching, Metasearching:
Using Metadata to Connect Users and Information. In: BACA, M. (Org.). Introduction to
Metadata. 2nd ed. Los Angeles: Getty Research Institute, 2008. Disponível em:
<http://www.getty.edu/research/publications/electronic_publications/intrometadata/path.pdf
>. Acesso em: 6 jul. 2014.
ZAFALON, Z. R. Scan for MARC: princípios sintáticos e semânticos de registros
bibliográficos aplicados à conversão de dados analógicos para o Formato MARC21
bibliográfico. 2012. 169 f. Tese (Doutorado em Ciência da Informação) – Faculdade de
Filosofia e Ciências, Universidade Estadual Paulista, Marília, 2012. Disponível em:
<http://base.repositorio.unesp.br/handle/unesp/103386>. Acesso em: 6 jul. 2014.
3201
APLICAÇÃO DE DADOS INTERLIGADOS ABERTOS APOIADA POR
ONTOLOGIA
LINKED OPEN DATA APPLICATION SUPPORTED BY ONTOLOGY
Linair Maria Campos
Maria Luiza de Almeida Campos
Resumo: Aplicações de dados interligados abertos têm se constituído em poderoso
instrumento para promover a difusão do conhecimento, na medida em que colocam em
contexto informações de naturezas diversas e afins, fornecendo ao receptor um significado
estabelecido justamente pelas interações entre essas informações. Nesse cenário, ontologias
atuam como um mecanismo conceitual que dará suporte à consistência dessa rede de
ligações entre conceitos, e, consequentemente, às aplicações que se proponham a explorála. O objetivo desse trabalho é apresentar uma aplicação de dados interligados abertos como
prova de conceito, apoiada pelo uso de uma ontologia, com o foco em servir como base
para explicitar informações relacionadas a teorias científicas de uma área do conhecimento.
A fundamentação teórico-metodológica parte de um levantamento na literatura sobre
ontologias relacionadas ao conhecimento científico como apoio para aplicações de dados
interligados abertos. Com base nessa fundamentação, tem-se como resultado um exemplo
de aplicação real de dados interligados abertos que permite apontar as conexões existentes
entre um conjunto de teorias presentes em artigos científicos, as quais versam sobre um
mesmo conceito, alvo de um objeto de pesquisa. Esse objeto de pesquisa é referenciado em
instâncias na ontologia proposta, a qual pode ser disponibilizada como uma base de dados
interligados aberta. Esse exemplo de aplicação permitiu evidenciar possíveis interligações
não antecipadas entre as teorias presentes nas instâncias da ontologia e a Dbpedia, bem
como responder a uma série de questões com base no modelo da ontologia. Como
conclusão, são apontadas evidências da importância do uso de ontologias como uma forma
de apoiar aplicações de dados interligados abertos.
Palavras-chave: Ontologias. Dados interligados abertos. Teorias científicas. Aplicativo.
Abstract: Open linked data applications have constituted a powerful tool to promote the
diffusion of knowledge, as it put into context related information of various natures, giving
the recipient an established meaning represented by the interactions between these
information. In this scenario, ontologies serve as a conceptual mechanism that will support
the consistency of this network of connections between concepts, and consequently, the
applications that propose to exploit it. The aim of this paper is to present an application of
linked open data as a proof of concept, supported by the use of an ontology with a focus on
serving as a basis for explicit information related to scientific theories of an area of
knowledge. The theoretical and methodological basis consists of a survey of the literature
on ontologies related to scientific knowledge as support for open linked data applications.
Based on this reasoning, we have as a result an example of an implementation of open
linked data, which point out the differences between a set of theories found in scientific
articles, which deal with the same concept, the target of a search object connections. This
research object is referenced in the proposed ontology instances, which can be made
available as a basis for open linked data. This sample application has highlighted possible
unanticipated interconnections between ontology instances and DBpedia, as well as answers
a series of questions based on the ontology model. In conclusion, it is pointed out evidence
of the importance of using ontologies as a way to support the open linked data applications.
Keywords: Ontologies. Linked open data. Scientific Theory. Application.
3202
1 INTRODUÇÃO
Artigos científicos costumam seguir uma metodologia de pesquisa, que implica em
adotar teorias, métodos e técnicas de pesquisa. O conjunto de teorias usado pelo autor
reflete um recorte possível, dentre visões afins e contrárias a seu ponto de vista. Este ponto
de vista implica um conjunto de pressupostos sobre o mundo que é alvo de seu estudo, ou
seja, seu paradigma de pesquisa, o qual fornece um arcabouço conceitual e filosófico para
guiá-lo, norteando inclusive a escolha de métodos a serem adotados (PONTEROTTO,
2005).
As noções de paradigma e teoria às vezes se confundem, mas um paradigma possui
um escopo mais amplo que uma teoria (MERTENS, 2010). Enquanto um paradigma
fornece uma visão geral de mundo, uma teoria representa um conjunto de conceitos
relacionados, definições e proposições para explicar e predizer um determinado fenômeno
(COHEN et al., 2007, p.l2). Um paradigma, então, poderia nortear a formulação de uma
teoria, ou, em outras palavras, uma teoria poderia estar alinhada com um paradigma.
Em uma teoria os conceitos ocupam um lugar central, pois são elementos básicos
para a elaboração de proposições, que, por sua vez, são elementos básicos das teorias
(GRENON; SMITH, 2011). Dessa forma, uma teoria possui um conjunto básico de
conceitos que lhes confere um escopo (FRIEDMAN, 2003), sendo que a maneira pela qual
esse mundo é percebido depende desse conjunto de conceitos (COHEN et al., 2007, p.l4).
Dessa forma, dado um determinado conceito que é alvo de um objeto de pesquisa, pode-se
ter atrelado a ele uma série de teorias afins e antagônicas entre si.
Entretanto, os detalhes de um objeto de pesquisa, ou seja, seus conceitos, teorias,
proposições, métodos, dentre outros, nem sempre são explicitados e por vezes são até
adotados de forma não consciente pelo autor.
Tal fato pode ocasionar uma maior
dificuldade na compreensão do contexto em que se insere a problemática do objeto de
pesquisa, e especificamente, na busca por teorias afins e em contraponto com a posição do
autor. Cabe destacar ainda que o critério adotado para a seleção das teorias pelo autor é
naturalmente limitado pela possibilidade de se manipular um volume cada vez maior de
publicações disponíveis e das limitações dos próprios mecanismos existentes para a sua
recuperação.
Idealmente, na ausência de mecanismos que automatizem a descoberta de teorias
relacionadas a objetos de pesquisa (dada a complexidade dessa tarefa), estas poderiam ser
descritas em bases de dados temáticas, e disponibilizadas através de metadados acessíveis
de forma livre e padronizada. Para isso, faz-se necessária a existência de vocabulários que
3203
contenham os conceitos a serem utilizados para a descrição de objetos de pesquisa e suas
teorias e pressupostos. Nesse sentido, tendo-se em mente a descoberta de conhecimento
relacionado, como, por exemplo, outras teorias de autores com pressupostos afins com os
adotados por um pesquisador, aplicações de dados interligados abertos podem ser úteis.
Embora o foco do presente artigo não esteja voltado para a elaboração dos vocabulários
necessários para a descrição das teorias, é possível ilustrar a utilidade de aplicações de
dados interligados abertos nesse cenário através do uso de ontologias de mais alto nível,
incentivando-se, como trabalhos futuros, a criação de tais vocabulários de forma mais
detalhada.
Nesse sentido, o uso de uma aplicação de dados interligados abertos de teorias
presentes em artigos científicos apoiada por ontologia poderia ajudar a entender o contexto
de tais teorias e a sua possível relação com outras, permitindo ainda evidenciar
possibilidades de aplicações de saberes de natureza interdisciplinar. O objetivo desse
trabalho é apresentar uma implementação de prova de conceito de uma aplicação de dados
interligados abertos apoiada por uma ontologia com o foco em explicitar informações
relacionadas a teorias que embasam artigos científicos, exemplificadas em uma área do
conhecimento. A proposta é dita prova de conceito pelo fato de não se constituir em uma
aplicação com interface customizada para uso geral. Embora essa customização não seja
uma tarefa complexa, ainda não se encontra concluída. Nesse sentido, a ferramenta
apresentada é um trabalho em aperfeiçoamento fruto de um esforço colaborativo conduzido
no âmbito de um Grupo de Pesquisa em Ciência da Informação.
Dados abertos são instrumentos para o avanço do conhecimento científico, na
medida em que se constituem em fontes de dados úteis de livre acesso que têm sido
publicadas por diferentes organizações de interesse público (LIU et al, 2011), muitas delas
ligadas à comunidade científica. Quando esses dados são interligados em um contexto,
podemos perceber de forma mais precisa o seu significado e a partir daí, obter
conhecimento.
É importante destacar que o significado da informação é obtido não através da
especificação do seu significado em si, o que não é possível de forma inequívoca, mas
especificando como a informação interage com outra informação (JAIN et al., 2011),
formando um contexto em que a semântica pode ser percebida de forma indireta.
Corroborando com essa afirmativa, situa-se Kitcher (1989) que, no contexto de uma
discussão sobre como se dá o entendimento do conhecimento, comenta que “compreender o
fenômeno não é simplesmente uma questão de reduzir as “incompreensibilidades
3204
fundamentais”, mas de perceber conexões, padrões comuns, naquilo que inicialmente
parecia ser situações diferentes”. Para que essa rede de informações com significado se
estabeleça é necessário que pessoas façam um esforço extra na codificação de informações
em representações passíveis de processamento automático. Com esse esforço computadores
terão condições de processarem, interpretarem e concatenarem dados. Nesse cenário se
situa a importância de se planejar o modelo dessas informações, ou seja, quais os conceitos,
as suas naturezas, características, e de que forma se relacionam uns com os outros. Esse
modelo ajuda a delinear a precisão das possibilidades de busca e entendimento da
informação, tanto para as máquinas quanto para as pessoas. A máquina cumpre o seu papel
de manipular de forma eficiente e sistemática grandes quantidades de informação, muitas
vezes a partir de ferramentas de software já existentes, que podem ser usadas de modo
combinado, ainda que customizadas, ou adaptadas para demandas específicas. As pessoas,
aqui entendidas como os profissionais da informação, cumprem o papel de fornecer os
princípios que o software
deve seguir para que possa tratar a informação de forma
inteligente, por exemplo, os modelos, que não podem ser definidos à revelia da validação de
pessoas e seus pontos de vista, sejam eles sociais, políticos, epistemológicos e/ou
pragmáticos.
Nesse cenário, o foco do presente artigo se apresenta no âmbito dos estudos em
dados abertos interligados enfatizando a questão da interligação semântica de dados de
artigos científicos da área de Ciência da Informação, com foco no estudo de Ontologias.
O restante do artigo está estruturado como se segue: na seção 2 é apresentado o
panorama de dados abertos interligados e sua aplicabilidade e ainda ferramentas que podem
ser usadas no contexto da aplicação proposta; na seção 3 é feita uma discussão de trabalhos
relacionados a abordagens de dados interligados abertos voltada para artigos científicos na
temática de ontologias; na seção 4 é apresentada a aplicação de dados interligados abertos
desenvolvida e os resultados obtidos e, por fim, na seção 5, conclusões e trabalhos futuros.
2 DADOS INTERLIGADOS ABERTOS: CONCEITO E FERRAMENTAS PARA
INTERLIGAÇÃO DE CONCEITOS
Bizer et al. (2009) definem dados interligados abertos20 como “um conjunto de boas
práticas para estruturar e publicar dados estruturados na web”.
As iniciativas de dados interligados abertos, doravante referenciadas como LOD,
têm tomado proveito do avanço de padrões web e são baseadas nos seguintes princípios: (1)
20
Linked Open Data (LOD) em inglês.
3205
uso de URIs (uniform resource identifier) como nomes para entidades; (2) uso de URIs via
HTTP (hypertext transfer protocol), de modo que se possam buscar informações por esses
nomes na web; (3) informações úteis associadas às URIs, usando padrões tais como RDF
(Resource Description Framework) e SPARQL (Protocol and RDF Query Language)
(W3C, 2008); (4) inclusão de associações com outras URIs, de modo que se possam
descobrir mais entidades (BIZER et al., 2009).
URIs via HTTP na prática se constituem em um mecanismo para atribuir a cada
entidade (concreta, abstrata, ou ainda um conceito qualquer) na web um identificador único,
através do qual o recurso pode ser referenciado, ligado a outros recursos, ou se pode
recuperar uma descrição do recurso que a URI representa.
RDF é um formato padrão para representação de dados na web. Esse formato
permite que se representem fatos através de triplas na forma de sujeito, predicado e objeto,
que, por sua vez, representam entidades concretas ou abstratas do mundo real. Cabe
destacar que conteúdos RDF podem estar disponíveis através de documentos (páginas)
RDF, mas também podem estar disponíveis através de bancos de dados de triplas RDF. Seja
como for, a linguagem SPARQL permite buscas nesse conteúdo, distribuído em diferentes
locais na web, de forma transparente, como se fosse uma única fonte de dados. Além disso,
SPARQL também inclui um protocolo para criação de serviços de fornecimento de dados
na web (SPARQL endpoints), os quais são acessíveis de forma usual através da web, e que
aceitam pesquisas, sendo os resultados fornecidos em formatos padronizados tais como
XML e RDF, o que facilita a sua interligação com outros dados na web (D’AQUIN, 2012).
Essa interligação, que pode ser automática ou semi-automática, é feita ligando-se
URIs e pode ser de duas formas: através do casamento de conceitos definidos em ontologias
ou através de casamento de suas instâncias, ou seja, quando se tenta determinar se dois
indivíduos se referem a uma mesma entidade de um domínio (SINGH et al., 2013). Ainda,
de acordo com Singh et al. (2013), muitas ferramentas têm sido propostas para ambas as
formas de interligação, porém a tarefa tem se mostrado árdua, e muitas das propostas são
voltadas para domínios específicos, ou para um tipo específico de dados. Entretanto, a
ferramenta SILK (Silk Link Discovery Framework) (ISELE et al., 2010) parece se destacar
nesse cenário, sendo uma das mais usadas e eficientes para interligar instâncias de dados em
RDF.
SILK é uma ferramenta de código aberto (open source) para descoberta semiautomática de interligações entre entidades de diferentes fontes de dados RDF, de acordo
com heurísticas pré-definidas que podem ser configuradas pelo usuário.
3206
A ferramenta SILK possui as seguintes características principais: (i) suporta a
geração de links do tipo owl:sameAs (para indicar equivalência de instâncias), assim como
outros tipos de links RDF; (ii) fornece uma linguagem declarativa flexível para especificar
as condições para que sejam propostas ligações; (iii) pode ser empregada em ambientes
distribuídos sem que seja necessário replicar os conjuntos de dados localmente; (iv) pode
ser usada em situações onde termos de diferentes vocabulários são misturados e não há um
esquema consistente por sobre esses dados; (v) implementa vários métodos para aumentar o
desempenho e a carga na rede (VOLZ et al., 2009).
Uma forma alternativa ao uso de ferramentas prontas para determinação automática
de links é a implementação, em um software específico, de algoritmos baseados em padrões
(pattern-based algorithms), os quais exploram padrões de nomeação de URIs para propor
interligações. Por exemplo, dadas duas fontes de dados RDF alvo, se o ISBN de um livro
fizer parte de duas URIs diferentes dessas fontes, o algoritmo poderá propor que se tratam
de conceitos equivalentes, gerando a relação owl:sameAs para conectar as duas URIs (YU,
2011). A partir daí, por exemplo, queries SPARQL podem ser utilizadas para apresentar os
resultados de conceitos considerados semelhantes, ou seja, que estejam ligados pela relação
owl:sameAs. O desafio que se coloca a partir daí é identificar quais os conceitos que podem
ser interligados e quais as relações possíveis de se estabelecer entre eles. Para isso é preciso
conhecer os elementos básicos do domínio.
3 TRABALHOS RELACIONADOS A ONTOLOGIAS E DADOS LIGADOS
ABERTOS
Na busca por trabalhos relacionados, foram consideradas ontologias e aplicações de
dados interligados abertos que pudessem ser aplicadas à descrição de pesquisas científicas.
Optou-se por um escopo de busca mais amplo, em vez de buscar apenas por trabalhos com
foco em descrição de teorias, por entender que as teorias se situam no escopo das pesquisas
científicas, levando a conceitos relacionados, como, por exemplo, autores, áreas de pesquisa
e linha filosófica adotada. Cabe destacar que essa ontologia que aqui se coloca é a do
artefato de software, e não a ontologia da filosofia, e seu papel é especificar e formalizar as
entidades, relações e axiomas que correspondem ao ponto de vista ontológico adotado pelo
pesquisador.
3.1 Ontologias aplicáveis ao conhecimento científico
Ontologias, em seu uso na Ciência da Informação, fornecem um modelo para
representar os pressupostos epistemológicos e ontológicos, relevantes para o entendimento
3207
de pesquisas e seu tratamento computacional através das iniciativas de dados interligados
abertos, mas sua elaboração é um processo custoso. Por essa razão, é importante utilizar em
alguns casos ontologias já existentes, devido à redução de esforços e ao favorecimento da
padronização:
Uma parte fundamental no processo de publicação inclui a determinação e
criação de vocabulários e ontologias que fornecem o modelo de dados
subjacente aos conjuntos de dados interligados, objetivando uma visão
mais integrada dos dados e a maximização da interoperabilidade
semântica entre conjuntos de dados e entre produtores-consumidores.
Outra parte importante na definição dos modelos de dados é a
maximização do reúso e da extensão de vocabulários e ontologias
existentes. Este é um elemento fundamental na redução do esforço
envolvido no consumo e integração de conjuntos de dados interligados
(CORDEIRO et al., 2011, p.84).
Na literatura, foram encontradas algumas iniciativas de descrição de vocabulários
com foco em aspectos específicos, tais como Bonomi et al. (2006) para descrição de dados
de publicações científicas da arqueologia, Biolchini at al. (2006) para revisão sistemática de
artigos de engenharia de software,
Malheiros e Marcondes (2011) para publicação
científica na área biomédica, Bibliographic Ontology (BIBO, 2014) para descrever citações
e referências bibliográficas na web semântica, Colibrary (GENDARMI; LANUBILI, 2009)
para descrever dados bibliográficos e de revisões de usuários.
Essas iniciativas são
voltadas, de modo geral, para os dados bibliográficos da publicação, como por exemplo, seu
autor, veículo de publicação, ou então para capturar os elementos da temática da
publicação, ou ainda a estrutura de afirmações científicas feitas nos artigos, neste último
caso com o foco em descoberta de conhecimento.
De fato, até onde pudemos perceber, não foi encontrada uma proposta de ontologia
voltada especificamente para publicações científicas que contemplasse detalhes sobre as
teorias utilizadas por eles. Entretanto, a ontologia Phylo (GRENON; SMITH, 2011),
ontologia da Filosofia, criada por Pierre Grenon e Barry Smith, este último filósofo e
ontologista que atua na comunidade biomédica, foi considerada aplicável aos propósitos do
presente trabalho, mediante adaptação. Traçando um modelo em alto nível da Filosofia,
onde se insere a Epistemologia, Phylo permite uma visão geral sobre aspectos
epistemológicos e ontológicos da pesquisa científica, incluindo as teorias e suas relações:
Os conceitos filosóficos são o mais próximo que chegaremos a unidades
básicas de atividades filosóficas. Proposições filosóficas são em primeira
aproximação feita de conceitos. E as teorias são feitas de proposições
(GRENON; SMITH, 2011, p.17).
A ontologia proposta por Smith propõe, de forma preliminar, quatro categorias ou
classes principais, a saber: Philosophical Object (Objeto Filosófico), Philosophical Field
3208
(Área da Filosofia), Person (philoshoper) (Pessoa (filósofo)), e Group of Persons (group
of philosophers) (Grupo de pessoas (grupo de filósofos)). Para a classe Philosophical
Object (Objeto Filosófico), Smith propõe as seguintes subclasses:
– concept (conceito: por exemplo, o conceito de forma)
– proposition (proposição: por exemplo, que forma existe)
– theory (teoria: por exemplo, teoria das formas, de Platão)
– argument (argumento: por exemplo, argumento do Terceiro Homem, de Platão)
– method (método: por exemplo, o método dialético).
A ontologia Phylo propõe ainda um conjunto de relações binárias, como, por
exemplo: memberOf (entre person e group), subgroupOf (entre group e group), workedOn
(entre person e concept e entre group e concept), subconceptOf (entre concept e concept),
activeIn (entre person e field e entre group e field), inField (entre concept e field e entre
philosophical entity e field), subfieldOf (entre field e field).
Cabe destacar que a ontologia Phylo embora contemple a associação de um conceito
a uma pessoa ou grupo de pessoas, ela não explicita que esse mesmo conceito pode ter
definições diferentes, de acordo com o viés determinado pelo grupo de pessoas que trabalha
no conceito. Por exemplo, podem-se citar pelo menos três definições diferentes para o
conceito de tropo21 (ROJEK, 2008, p.367), cada uma defendida por um grupo de pessoas
diferente. Dessa forma, como esse importante aspecto não fica explicitado, pode dar a
entender que grupos de pessoas distintos trabalham com a mesma noção, o que é
equivocado. Na verdade, elas podem trabalhar o mesmo conceito, porém com diferentes
pontos de vista. Isso é determinado pela definição. Se pudermos dizer que as definições são
as mesmas, então podemos chegar à conclusão que grupos distintos convergem em relação
a um conceito. Do contrário, fica explicitada a divergência.
Embora a ontologia Phylo possua a relação subConceptOf que relaciona concept a
concept, Smith deixa claro que essa relação é apenas para fins de especialização de um
conceito, não estando essa especialização vinculada a uma teoria: “Nós usamos
subconceptOf como a relação entre dois conceitos quando o primeiro é uma especialização
do segundo. Além disso entendemos que a especialização é definitória e não sujeita a
debate filosófico, assim, em particular, não é dependente de uma teoria” (GRENON;
SMITH, 2011, p.17).
Por outro lado, a ontologia Phylo possui a entidade proposition, através da qual se
poderia diferenciar os conceitos usados nas teorias. Entretanto, para que fosse possível
21
São elas: Teoria de Tropos sem Universais, Teoria de Tropos com Universais Determináveis e
Teoria de Tropos com Universais Concretos.
3209
chegar à conclusão que as teorias convergem, teríamos de associar um conjunto de
proposições (com seus respectivos argumentos) às respectivas correntes filosóficas. Se
tomarmos a definição de conceito de Dahlberg (1978a), onde este é uma unidade de
conhecimento formada pelo referente, o termo e proposições sobre o referente, é possível
considerar proposition como sendo parte de concept e, assim, associá-las indiretamente a
group of persons (representantes das correntes filosóficas). Nesse caso, teríamos a noção de
um conceito com um viés, este determinado pelo grupo de pessoas.
3.2 Aplicações de dados interligados abertos relacionadas ao conhecimento científico
Apesar de o foco do presente trabalho não ser implementar uma aplicação de LOD
para descrição de recursos, é importante disseminar o uso e compreender os aspectos
envolvidos nesse tipo de iniciativa, que se constitui em uma realidade cada vez mais
proeminente na web dos dias atuais:
Criar maneiras de facilitar o uso das informações e elaborar um ambiente
no qual as informações estejam integradas deve ser objetivo dos
profissionais da informação, que certamente têm um espaço na
instrumentalização dessas tecnologias (SANTOS NETO et al., 2013,
p.86).
Dentre as aplicações de LOD pesquisadas relatadas a seguir, observou-se de fato
que o diferencial entre elas é ontologia que apoia a aplicação em si. Entretanto, algumas
aplicações apresentam aspectos úteis para uma aplicação de LOD, os quais podem ser
utilizados em trabalhos futuros.
Börner et al. (2012) apresentam uma solução denominada VIVO, a qual tem o foco
na informação sobre pesquisa e pesquisadores e fornece, além de uma ontologia,
ferramentas para gerenciar a ontologia e uma plataforma para usar a ontologia e criar e
gerenciar os dados interligados abertos a ela associados. Bonomi et al. (2006), por sua vez,
apresentam um protótipo de uma biblioteca eletrônica (e-Library), a qual permite
descrições e buscas semânticas nas coleções descritas, cujo vocabulário é voltado
especificamente para publicações científicas da área de Arqueologia.
Kramer et al. (2012) propõem o uso de RDF com o foco em descrever e interligar
dados trabalhados pelas pesquisas de ciências sociais na web. Contempla, dentre outros, os
seguintes aspectos: interligação de publicações, pessoas e organizações a dados de pesquisa,
interligação a dados geográficos, a estudos relacionados, e interligação de dados a licenças.
Os autores utilizam-se do recurso de identificadores persistentes largamente usados na
publicação acadêmica, como por exemplo DOIs (Digital Object Identifiers), para identificar
unicamente os dados de pesquisa, assim como nas citações da publicação. Dessa forma, é
3210
possível identificar, por exemplo, publicações que utilizem as mesmas fontes de dados, ou
ainda, publicações que utilizem as mesmas bases teóricas. Embora essa proposta se
aproxime do objetivo do presente trabalho, é importante destacar que existe uma diferença
primordial, posto que Kramer et al. explicitam o aporte teórico na forma de links para as
publicações científicas e não para as teorias ali utilizadas nem as linhas epistemológicas
adotadas. Nesse sentido, funcionam mais como uma rede de citações bibliográficas, embora
contextualizadas.
Todas essas aplicações evidenciam a utilidade e versatilidade de aplicações de LOD
no que tange a representar de forma articulada dados do conhecimento científico. O desafio
que se coloca para essas aplicações parece centrar-se não na infraestrutura tecnológica, mas
sim na concepção do modelo da ontologia do domínio, uma vez que os resultados por elas
apresentados são todos, em sua essência, dependentes dessa ontologia e nela apoiados.
4 APLICAÇÃO DE LOD APOIADA POR ONTOLOGIAS: MÉTODOS E
RESULTADOS
Nas seções anteriores foi ilustrado o papel das ferramentas de software e dos
aspectos epistemológicos e ontológicos voltados para a representação do domínio
escolhido. Apontou-se também, embora não esteja no escopo do presente trabalho, a
importância dos aspectos metodológicos, voltados para a compreensão do problema.
Partindo desses conhecimentos, espera-se poder demonstrar a utilidade da aplicação de
LOD para interligar teorias presentes em artigos científicos da temática de ontologias, e,
através de um exercício simples dessa aplicação, voltar a lembrar a importância do papel do
profissional da informação no uso de ferramentas de software e na modelagem da
informação, conforme proposto por Campos et al. (2012).
4.1 Ontologia do conhecimento científico para uso na aplicação LOD
Conforme a recomendação de publicação de dados interligados abertos, procedeu-se
à descrição de um conjunto de dados relacionados a teorias presentes em publicações
científicas da temática de ontologias. Para isso, utilizou-se a ontologia do conhecimento
científico que é apresentada a seguir. Essa ontologia foi inspirada na ontologia Phylo, e, tal
como esta, é uma proposta preliminar, ainda em aperfeiçoamento.
Das entidades propostas por Smith na ontologia Phylo, para os propósitos do
presente trabalho, foram reutilizadas as seguintes: conceito, teoria, área, pessoa e grupo de
pessoas. Cabe observar que a ontologia Phylo é específica da Filosofia, enquanto que na
presente proposta, o foco foi adaptado para a descrição do conhecimento contido em artigos
3211
de pesquisa acadêmica, objetivando contemplar aspectos básicos desse conhecimento. A
adaptação se aplica, pois está ancorada na descrição dos aspectos epistemológicos dos
artigos, sendo que a Epistemologia é um ramo da Filosofia. Assim sendo, à semelhança de
Smith, a FIGURA 1 ilustra exemplos de uso dos conceitos reutilizados.
Cabe lembrar que se faz necessário o desenvolvimento de vocabulários que
descrevam as instâncias dos conceitos de alto nível descritos pela ontologia proposta, e que
poderiam ser descritas em bases de dados temáticas, conforme mencionado na introdução
do presente artigo. Porém esse não é o foco desse trabalho, e, nesse sentido, serão utilizados
exemplos, de modo a viabilizar a utilidade da aplicação LOD proposta.
Ainda, com base na ontologia Phylo, a ontologia para o conhecimento científico
também possui a preocupação para definir suas relações e minimizar ambiguidade na
definição de conceitos. Corroborando com essa preocupação, na Ciência da Informação,
Dahlberg (1978a, 1978b) destaca a importância das definições, na medida em que tornam
explícito o conteúdo dos conceitos, fornecendo os elementos que vão forjar as relações
entre eles. Dahlberg, através de sua Teoria do Conceito, propõe ainda que as definições
revelam um conjunto de características comuns que são úteis para construir qualquer
sistema classificatório (DAHLBERG, 1983).
Considerando a importância da definição dos conceitos da ontologia, explicamos a
seguir de que modo são entendidas as entidades presentes na ontologia proposta, a saber:
research object (objeto de pesquisa), concept (conceito), biased concept (conceito com
viés), theory (teoria), field (área), person (pessoa) e group of persons (grupo de pessoas),
proposition (proposição), basic proposition e differential proposition. Por motivos de
simplificação, não será considerada a entidade argument.
Por research object entende-se a classe genérica, que agrupa os conceitos de
concept, biased concept, bias, proposition, basic proposition, differential proposition e
theory.
Por field entende-se a área de pesquisa na qual se insere um pesquisador ou seu
objeto de pesquisa. Uma área de pesquisa pode estar subordinada a outra área de pesquisa.
Por person entende-se o pesquisador que atua ou atuou em uma área de pesquisa, e o qual
trabalha ou trabalhou em um objeto de pesquisa. Por group of persons entende-se a posição
filosófica de um grupo de pessoas a qual pertence um pesquisador.
Por concept entendemos um objeto básico alvo de uma temática de pesquisa.
Por biased concept entendemos um concept porém com um viés que o difere de
outros biased concept. Esse viés se manifesta através de um conjunto específico de
3212
proposições, a saber, differential proposition. Os biased concept são assim especializações
de um concept na medida em que todos concordam com um conjunto básico de proposições
que está definida em concept (basic proposition), embora cada um deles possua seu próprio
conjunto de proposições que os difere entre si. Biased concept foi criada para reforçar a
noção do viés de um grupo de pessoas trabalhando em um conceito. Considera-se que essa
entidade expressa um ponto de vista consensual de um grupo de pessoas sobre um
determinado conceito, sendo definida através de um conjunto de proposições específico.
Naturalmente, considera-se que o ponto de vista expressa uma diferença, mas também
algum consenso sobre alguma coisa. Por exemplo, têm-se duas visões distintas para um
mesmo conceito básico de tropo feito por grupos diferentes de pessoas: tropos são abstratos
e tropos são particulares. Essas proposições podem nos levar a conclusões importantes,
dependendo do escopo de instâncias de teorias de tropos considerado. Tomando-se o ponto
de vista de Rojek (2008), por exemplo, todas as teorias de tropos têm em comum a
proposição de que “tropos são particulares” (esse seria o conceito básico de tropo). Em
contrapartida, algumas teorias de tropos consideram que tropos são abstratos, enquanto que
outras consideram que tropos são concretos. Dessa forma, esse conceito consensual,
baseado no qual derivam conceitos afins, porém com diferentes vieses, é expresso na
ontologia como concept. Os diferentes pontos de vista são os biasedConcept. Seria possível
representar ambos como concept, mas nesse caso não ficaria explícita essa diferença
importante de que existe um conjunto básico de proposições consensuais, basicProposition,
que dá origem a um concept que é um conceito base para uma divergência de posições de
pesquisa, divergência essa representada pelo diferente conjunto de proposições específicas,
differentialProposition, que está associado a cada biasedConcept.
Um concept é definido ou trabalhado por um groupOfPersons, mas a tendência é
que esse grupo seja de um escopo mais amplo do que o grupo de pessoas que trabalha no
biasedConcept. Por essa razão, entende-se que os biasedConcept, são, de fato, trabalhados
por um GroupOfPersons que é um subgrupo de um determinado GroupOfPersons.
Entretanto, para fins de simplificação, esses detalhes não serão explicitados no mapa
conceitual proposto para a ontologia do conhecimento científico (FIGURA 1).
Por proposition entendemos uma afirmativa sobre um referente no mundo. Uma
proposição é expressa através de conceitos, embora sejam, por sua vez, parte de um
conceito, como propõe Dahlberg.
basicProposition.
Proposition pode ser differentialProposition ou
3213
Por theory entendemos um conjunto de afirmativas sobre o mundo, incluindo o que
Giere (2004) descreve como teoria, lei e princípio.
Quanto às relações, as principais que foram adotadas, reutilizadas da Phylo, são:
memberOf (membro de), workedOn (trabalhou em), subgroupOf (subgrupo de),
subconceptOf (sub conceito de), inField (na área), subfieldOf (sub área de), activeIn (atua
em).
As relações subgroupOf, subfieldOf e subconceptOf são usadas para denotar
especialização para as entidades Group, Field e Concept, respectivamente, no sentido
original adotado por Smith. Além dessas, foram utilizadas as relações IsA (gênero-espécie),
para associar um biasedConcept a um Concept implicando um viés teórico distinto, partOf
(e sua inversa hasPart), para associar um BiasedConcept a uma Theory, e para associar um
concept a uma basicProposition. A relação partOf também é usada para associar uma
proposition a uma Theory. Cabendo observar que nem toda proposition que compõe uma
Theory pode estar associada a um BiasedConcept que faz parte da Theory. Por exemplo,
uma Theory pode apresentar a proposition “formas existem”, sem que essa proposição
específica esteja associada a um BiasedConcept.
A relação inField entre um conceito objeto de pesquisa e uma área de pesquisa
ocorre quando é o caso do conceito ser estudado pela área, como, por exemplo, no caso do
conceito de categorias, o qual é estudado pela Ciência da Informação. Cabe destacar que o
fato de um objeto de pesquisa ser estudado por uma área não impede que ele seja estudado
também por outra área, embora provavelmente através de teorias diversas.
A relação workedOn é a relação entre uma person ou groupOfPersons e uma theory.
Por exemplo, entre D.C. Williams e a Teoria de Tropos. É usada também para relacionar
person ou groupOfPersons a concept ou a BiasedConcept.
Os conceitos da ontologia proposta são ilustrados através de um mapa conceitual, na
FIGURA 1, sendo apoiado em uma adaptação da ontologia Philo. Nem todas as relações
explicadas anteriormente estão ilustradas na FIGURA 1, por motivos de simplificar a
visualização do modelo. Por exemplo, o conceito de Proposition foi omitido. Dessa forma,
suas relações com theory (partOf) e com differential proposition e basic proposition (Isa)
foram omitidas.
Um trecho do código OWL de um conjunto de instâncias desse modelo, usado no
experimento descrito na seção 4 é ilustrado na FIGURA 2.
3214
FIGURA 1: mapa conceitual simplificado da ontologia para o conhecimento científico
A ontologia proposta permite responder a várias perguntas, tais como: (i) de quais
teorias o conceito x faz parte; (ii) de quais teorias o conceito x faz parte e são trabalhadas
por um grupo de pessoas y; (iii) a que área pertence a pessoa x que trabalha na Teoria y;
(iv) que pessoas trabalham na teorias x e em que áreas; (v) de que teorias fazem parte os
conceitos x com a proposição y; (vi) qual o grupo de pessoas que trabalha no conceito x.
O conjunto de instâncias da ontologia do conhecimento utilizado como exemplo ao
ser explorado responde a algumas questões específicas, conforme ilustrado na FIGURA 2.
Essas respostas são fornecidas com base em Rojek (2008) e Dahlberg (1978a).
Algumas das questões respondidas são: (i) o concept “universal” faz parte das
theory de Tropos1, Tropos2, Tropos3 e Teoria do Conceito; (ii) o biasedConcept de
“universal concreto”, trabalhado pelo groupOfPersons “filósofos da pan-unidade”, faz parte
das theory de Tropo1 e Tropo2; (iii) a person Ingetraut Dahlberg trabalha na Teoria do
Conceito e atua na área da Ciência da Informação; (iv) as person Aristoteles, Ingarden e
Husserl trabalham na theory Teoria de Tropos na area da Filosofia; (v) o biasedConcept
“non-abstract universal”, com a basicProposition “universals are not abstract”, faz parte
das theory Teorias de Tropos 1, 2, 3 e 4; o biasedConcept “concrete universal” com a
differentialProposition “universals are concrete” faz parte das theory Teorias de Tropos 1 e
2; (vi) o groupOfPersons “realismo moderado” trabalha no biasedConcept “abstract
universal”.
Uma semântica mais rica de descrição, como proposto, pode ser o ponto de partida
para ajudar a construir perguntas mais objetivas e bem construídas. A modelagem das
questões relevantes para o domínio, incluindo seus relacionamentos e a descrição e
3215
interligação semântica dos seus dados, permitem resultados mais precisos. Por um lado, por
auxiliar o interessado a formular a sua pergunta de forma objetiva e, por outro lado, por
permitir que esses aspectos possam ser considerados como critério pelas ferramentas de
software para trazer informação relevante relacionada.
FIGURA 2: Trecho da ontologia OntoSC
4.2 Aplicação LOD e resultados obtidos
A aplicação de LOD proposta consiste em uma prova de conceito de uma
ferramenta de software, mas envolve mais do que simplesmente uma codificação em uma
linguagem de programação. Para que essa aplicação fosse concebida, foi necessário todo
um estudo, conforme foi explanado nas seções anteriores, que permitiu o embasamento
necessário para a compreensão dos problemas e dos requisitos a serem implementados na
solução computacional. Além disso, envolveu um esforço da definição do modelo de uma
ontologia, da seleção de um conjunto de dados adequado e da descrição desse conjunto
como instâncias da ontologia, e ainda, da codificação da aplicação. Por questões de espaço,
será apresentada uma breve explanação das funcionalidades da aplicação bem como do
conjunto de dados utilizado.
A aplicação foi implementada em Java com uso da API Jena (2014), sendo a
ontologia desenvolvida por meio da ferramenta Protégé OWL (2014). Fornece
funcionalidades para que sejam feitas consultas, incluindo inferências, na base de instâncias
3216
OWL cujo trecho é apresentado na FIGURA 2. Foi testada com sucesso para responder às
perguntas apresentadas na seção 4.1, sendo que o resultado de um desses testes é ilustrado
na FIGURA 3, o qual visa responder à pergunta “quais as teorias que têm como parte a
proposição diferencial universals_are_concrete”.
FIGURA 3: Trecho do código Java que faz busca na ontologia OntoSC, com resultado
A interligação de dados se dá através dos elementos theory, person e field, sendo
feita com a Dbpedia22. A relação para indicar a interligação com a Dbpedia é owl:sameAs.
Para a descoberta dos possíveis recursos alvo da Dbpedia (no caso do exemplo,
Ranganathan) foi feita uma busca manual, que, por ocasião de uma versão futura, poderá
ser substituída pela busca automatizada da ferramenta SILK. A busca na DBpedia também
foi implementada e apresentada como resultado complementar. Um extrato do código com
a query SPARQL utilizada é ilustrada na FIGURA 4. Essa query tem como finalidade
exibir todas as informações encontradas na Dbpedia associada ao recurso indicado na
relação owl:sameAs. Dessa forma, foi possível complementar as informações contidas na
ontologia OntoSC relacionadas a Person e de forma organizada, através de ligações
nomeadas, trazendo uma semântica adicional que é um atrativo para o aprendizado. No caso
de Ranganathan, por exemplo, foi possível obter a partir da Dbpedia informações sobre as
22
www.dbpedia.org
3217
suas obras notáveis (notableworks), a saber, Prolegomena of Library Classification,
Ramanujan: the Man and the Mathematician, The Five Laws of Library Science, dentre
outras informações de interesse, conforme ilustrado na FIGURA 4.
FIGURA 4: Trecho do código Java com a query SPARQL para busca na Dbpedia com parte
do resultado
5 CONCLUSÃO
Através de LOD, a web passa a disponibilizar um volume enorme de dados, não só
documentos, que ao serem modelados em triplas RDF, permite que a web seja encarada
como um grande banco de dados passível de inspeção por ferramentas de software já
disponíveis na atualidade. Nesse cenário, ontologias são importante instrumento para
explicitar de forma menos ambígua as informações que se disponibilizar de forma livre na
web.
Para mostrar essa realidade, apresentou-se um exemplo de aplicação de dados
interligados abertos apoiada por uma ontologia para descrever teorias científicas ligadas a
áreas do conhecimento. Essa aplicação foi concebida a partir de uma revisão teórica na área
de ontologias relacionadas ao conhecimento científico e em dados interligados abertos,
tendo como objetivo servir como prova de conceito da utilidade e da viabilidade de se
implementar uma solução tecnológica apoiada pela ontologia. A partir do modelo da
ontologia proposta, foi criado um conjunto de instâncias de teste o qual serviu para
evidenciar, como resultado, a utilidade do modelo para responder a um conjunto prédeterminado de perguntas. Trabalhos futuros podem abordar a questão de se criar um
conjunto real de instâncias e de tornar a implementação publicamente disponível através da
adaptação de sua interface de busca para a web. Como conclusão tem-se que o uso de
3218
ontologias é útil para ajudar a conceber um modelo mais preciso com foco em responder
perguntas, cujas respostas transcendem os dados da base de instâncias local, estendendo o
conhecimento para uma nuvem de possibilidades ampliadas, concretizando o objetivo
pretendido das aplicações de dados interligados abertos.
REFERÊNCIAS
BIBO, The Bibliographic Ontology, 2014. Disponível em: <http://bibliontology.com/>.
Acesso em: 27 jul. 2014.
BIZER, C, HEATH, T., BERNES-LEE, T. Linked Data. The story so far. International
Journal on Semantic Web and Information Systems, v. 5., n. 3., p. 1-22, 2009.
BONOMI, A. et al. A framework for ontological description of archaeological scientific
publications. In: ITALIAN SEMANTIC WEB WORKSHOP, 3., Pisa. Proceedings..., Pisa:
CEUR, 2006.
BÖRNER et al. VIVO: A Semantic Approach to Scholarly Networking and Discovery.
Synthesis Lectures on the Semantic Web: Theory and Technology, v. 1., n. 7., p.1-178,
2012.
CAMPOS, L.M. et al. Dados abertos interligados e o espaço do profissional de informação:
Uma aplicação no domínio da enfermagem. In: ENCONTRO NACIONAL DE PESQUISA
EM CIÊNCIA DA INFORMAÇÃO, 13., Rio de Janeiro. An is eletrônicos… Rio de
Janeiro: ICICT, 2012.
COHEN, L.; MANION. L.; MORRISON, K. Research Methods in Education. New
York: Routledge, 2007.
CORDEIRO, K.F. et al.. An approach for managing and semantically enriching the
publication of Linked Open Governmental Data. In: WORKSHOP IN APPLIED
COMPUTING FOR ELECTRONIC GOVERNMENT, 3., Florianópolis. Proceedings…
Florianópolis: WCGE, 2011.
DAHLBERG, I. A referent-oriented, analytical concept theory of Interconcept.
International Classification, v. 5, n. 3, p. 122-151, 1978a.
DAHLBERG, I. Conceptual compatibility of ordering systems. Internacional
Classification, v. 10, n. 2, p. 5-8, 1983.
DAHLBERG, I. Teoria do conceito. Ciência da Informação, v. 7, n. 2, p. 101-07, 1978b.
D'AQUIN, M.: Putting Linked Data to Use in a Large Higher-Education Organisation. In:
INTERACTING WITH LINKED DATA WORKSHOP, 1., Heraklion. Proceedings…
Heraklion: ILD, 2012: p. 9-21.
FRIEDMAN, K. Theory construction in design research: Criteria: Approaches, and
methods. Design Studies, v. 24, n. 6, p. 507-522, 2003.
GENDARMI, D.; LANUBILI, F. 2009. Colibrary: Linking Communities of Readers on the
Social Semantic Web. In: SCRIPTING AND DEVELOPMENT FOR THE SEMANTIC
WEB WORKSHOP, 6., Heraklion, Proceedings…, Heraklion:. CEUR-WS.org, 2009, p.1-2.
3219
GIERE, R. How Models Are Used to Represent Reality. Philosophy of Science, v. 71,
Supplement, p. 742-752, 2004.
GRENON, P; SMITH, B. Foundations of an Ontology of Philosophy. Synthese, v. 182, n.
2, p. 185-204, 2011.
ISELE, R.; JENTZSCH, A.; BIZER, C. Silk Server - Adding missing Links while
consuming Linked Data. In: INTERNATIONAL WORKSHOP ON CONSUMING
LINKED DATA, 1., Shanghai, Proceedings… Shanghai: CEUR-WS.org, 2010, p.1-12.
JAIN, P. et al. How To Make Linked Data More than Data, 2010. Disponível em: <
http://corescholar.libraries.wright.edu/cgi/viewcontent.cgi?article=1094&context=knoesis>.
Acesso em: 28 jul. 2014.
JENA. A Semantic Web Framework for Java, 2014. Disponível em:
<http://jena.sourceforge.net/.>. Acesso em 28/07/2014.
KITCHER, P. Explanatory Unification and the Causal Structure of the World. In:
KITCHER, P.; SALMON, W. Scientific Explanation. Minneapolis: University of
Minnesota Press, 1989.
KRAMER, S. et. al. Using RDF to Describe and Link Social Science Data to Related
Resources on the Web, 2012. Disponível em: <http://pub.unibielefeld.de/publication/2524325>. Acesso em: 25 ago. 2014.
LIU, Q; et al. Linking Australian Government Data for Sustainability Science: A Case
Study. In: WOOD, D. Linking Government Data, New York: Springer, 2011.
MALHEIROS, L.R.; MARCONDES, C.H.. Identificación de los rasgos de descubiertas
cientificas en artículos biomedicos. Revista EDICIC, v. 1, n. 4, p. 30-48, 2011.
MERTENS, D. A. Research and evaluation in education and psychology. Thousand Oaks:
Sage, 2010.
PONTEROTTO, J.G. Qualitative Research in Counseling Psychology: A Primer on
Research. Paradigms and Philosophy of Science. Journal of Counseling Psychology, v.
52, n. 2, p. 126-136, 2005.
PROTÉGÉ OWL, Editor de Ontologias em OWL, 2014. Disponível em:
<http://protege.stanford.edu/>. Acesso em: 28 jun. 2014.
ROJEK, P. Three Trope Theories. Axiomathes, v. 18, n. 1., p. 359-377, 2008.
SANTOS NETO, A.L. et al. Tecnologias de dados abertos para interligar bibliotecas,
arquivos e museus: um caso machadiano. Transinformação, v. 25, n. 1, p. 81-87, 2013.
SINGH, R, et al. A graphical user interface for SILK data link discovery framework. In:·
International Symposium on Open Collaboration, 9., New York. Proceedings... New York:
ACM, 2013, p.241-242.
VOLZ, J. et al. Silk – A Link Discovery Framework for the Web of Data. Workshop on
Linked Data on the Web, 2., Madrid. Proceedings... Madrid: LDOW, 2009, p. 1-6.
W3C, 2008. SPARQL Query Language for RDF, 2008. Disponível em:
<http://www.w3.org/TR/rdf-sparql-query/>. Acesso em: 10 jul. 2014.
3220
YU, L. A developer´s guide to the Semantic Web. New York: Springer, 2011.
3221
USUÁRIOS EM PRÁTICAS PROFISSIONAIS DE BIBLIOTECÁRIOS E
ANALISTAS DE TI
USERS IN PROFESSIONAL PRACTICES OF LIBRARIANS AND IT PROFESSIONALS
Eliane Cristina de Freitas Rocha
Adriana Bogliolo Sirihal Duarte
Resumo: Este artigo tem como objetivo apresentar comparações das práticas de
bibliotecários e analistas de Tecnologia da Informação em aspectos concernentes à
usabilidade, acessibilidade, construção e uso de sistemas de informação digitais, resultantes
de pesquisa de doutorado, realizada junto a 17 profissionais bibliotecários e 16 analistas de
tecnologia da informação. Entre os entrevistados com perfil de analistas de
requisitos/analistas de sistemas e bibliotecários com experiência em construção de sistemas
digitais, verificou-se a aplicação de técnicas de pesquisa comuns para realização de estudos
de usuário: entrevistas e análise de domínio, no projeto de sistemas informatizados. Já as
técnicas qualitativas (observação, entrevista) e métodos técnicos da engenharia de software
e usabilidade (prototipação) são aplicados por analistas de tecnologia da informação com
perfil de designers de interação ou especialistas em usabilidade.
Palavras-chave: Bibliotecário. Analista de sistemas. Estudo de usuário. Prática
profissional.
Abstract: This paper aims to present comparisons of librarians and information technology
analysts’ professional practices concerning usability, accessibility, building and use of
digital information systems, as final results of doctoral dissertation research held among 17
librarians and 16 technology information analysts. It has been found, among interviewers
with system’s requirements/systems’ analysts profiles and librarians experienced in
building digital systems, the use of research techniques in common to carry on user studies:
interviews and domain analysts, in projecting information systems. Otherwise, qualitative
techniques (observation, interviews) and software engineering and usability techniques
(prototyping) were applied by Information Technology Analysts in interaction designer or
usability specialist roles.
Keywords: Librarian. System anlyst. User studies. Professional practice.
1 INTRODUÇÃO
Este artigo tem como principal objetivo apresentar resultados e reflexões originadas
em trabalho de doutorado (ROCHA, 2013) que visou responder à seguinte questão: “De que
maneira têm sido abordados os usuários da informação nas práticas profissionais de
bibliotecários e analistas de sistemas?”.
Se, por um lado, o trabalho procurava abordar uma importante lacuna observada na
literatura da Ciência da Informação (CI) - carência de trabalhos acadêmicos brasileiros que
reflitam sobre as práticas efetivas de trabalho de bibliotecários em relação aos seus usuários
- por outro, explorava pontos de intersecção das práticas profissionais relativas aos projetos
de sistemas de informação, usabilidade e acessibilidade. Tais pontos são explorados em
3222
revisão bibliográfica e teórica, com breve exposição apresentada na próxima seção deste
trabalho (seção 2).
Em sequência, foi realizado um estudo de campo com 17 profissionais bibliotecários
e 16 analistas de tecnologia da informação, por meio de entrevistas semiestruturadas, que
permitiram levantar as técnicas de coleta de dados de pesquisa utilizadas para abordagem de
usuários da informação (observação, diários de campo, questionários, entrevistas, entre
outras) no projeto de sistemas e em aspectos relacionados à usabilidade, acessibilidade e
suporte ao usuário. Os resultados do trabalho de campo são apresentados na seção 3. Por
fim, são tecidas considerações finais em relação a aproximações e diferenças das práticas
profissionais na seção 4.
2 ABORDAGENS DOS USUÁRIOS NA CI E NA COMPUTAÇÃO
Com os propósitos de conhecer os usuários de unidades de informação e contribuir
com o seu planejamento, González Teruel (2005) aponta os estudos de usuários na CI como
estudo das necessidades da informação, estudo de demanda de informação, estudo de usos
da informação, estudos de satisfação com os serviços informacionais, e estudos de impacto;
por outro lado, os estudos de usuários, na visão de Figueiredo (1994) também envolvem o
estudo das comunidades de usuários.
Tanto Choo (2003) quanto González Teruel (2005) reconhecem que tais estudos
podem ser orientados ao sistema (abordagem tradicional, de orientação metodológica
quantitativa) – “buscam caracterizar como a informação flui no ambiente externo do
indivíduo pelos sistemas sociais” (CHOO, 2003, p. 68), que privilegia o emprego de
técnicas quantitativas – ou orientados ao usuário (abordagem alternativa, tradicionalmente
associada a métodos qualitativos) – buscam revelar “as preferências, necessidades
cognitivas e psicológicas do indivíduo, como elas afetam a busca e os padrões de
comunicação da informação” (CHOO, 2003, p. 68-69).
Se, no âmbito da CI, o campo de estudos de usuários se volta para o avanço tanto de
teorias quanto de técnicas para compreensão dos usuários da informação, a área de
Computação, no seu subcampo denominado engenharia de software, procurou desenvolver
estudos com a visão do desenvolvedor de software que tornam os sistemas interativos mais
“eficientes, robustos, livres de erros, e de fácil manutenção” (BARBOSA; SILVA, 2010, p.
8). Foi somente a partir da quarta geração de computadores (a geração dos
minicomputadores do final da década de 1970) em diante, que a figura do usuário de
sistemas com suas necessidades passa a ser considerada no processo de software, embora as
abordagens da engenharia de software surgidas a partir daquele momento fossem centradas
3223
usualmente na qualidade de construção do software a partir de uma visão de “dentro para
fora”, com ênfase “na representação de dados, algoritmos que processam esses dados,
arquitetura do sistema e tudo o mais que permite um sistema interativo funcionar”
(BARBOSA; SILVA, 2010, p. 8).
A concepção de sistemas interativos construídos de uma perspectiva de “fora para
dentro”, com ênfase primeira no contexto de uso (necessidades e interesses dos usuários,
domínio da atividade, tarefas realizadas, impactos no ambiente, etc) é o foco dos estudos da
área de Interação Humano-Computador (IHC) – surgida em âmbito mundial a partir da
década de 1990 – e, “sob alguns aspectos, também [da] área de Engenharia de Requisitos”
(BARBOSA; SILVA, 2010, p. 9). As duas abordagens – de fora para dentro e de dentro
para fora – talvez se assemelhem à distinção existente no campo da CI dos estudos de
usuários da informação centrados no sistema, por um lado, e centrados no usuário, por
outro.
A Engenharia de Requisitos refere-se aos processos de desenvolvimento (extração,
discussão e análise de requisitos) e gestão de requisitos (documentação, validação e
manutenção de requisitos), conforme Attarha e Modiri (2011). Na análise de requisitos, a
“equipe [...] de desenvolvimento [... trabalha] com o cliente e os usuários finais do sistema
para descobrir [...] informações sobre o domínio da aplicação, que serviços o sistema deve
oferecer, o desempenho exigido do sistema, as restrições de hardware e assim por diante”
(SOMMERVILLE, 2003, p. 104). As principais técnicas de extração de requisitos são
entrevistas, cenários, realização de brainstorming, observação e análise, grupos de foco,
reuso de requisitos, prototipação, Soft System Methodology (SSM), JAD (Joint Application
Development) e QFD (Quality Function Deployment) (ATTARHA; MODIRI, 2011, p.
182).
Embora os usuários sejam essenciais no processo de desenvolvimento de sistemas
computadorizados, em especial nas fases de elicitação e definição de requisitos,
implantação e operação de sistemas (NASCIMENTO, 2003), o estudo sistemático acerca
dos papéis dos usuários se desenvolveu em campo de estudo à parte da engenharia de
software – a IHC – donde foi gestada a engenharia de usabilidade. Barbosa e Silva (2010,
p.10-11), apresentam cinco tópicos de interesse de estudo da IHC: natureza da interação
humano-computador e suas consequências na vida das pessoas; contexto de uso (cultura,
sociedade, organizações, ambiente); características humanas (físicas, perceptivas,
emocionais, entre outras) que interferem no uso de sistemas; arquitetura de sistemas e
3224
interfaces (como os dispositivos de interação e os estilos de interação) e o processo de
desenvolvimento de sistema interativo visando alta qualidade de uso.
O campo de estudos é bastante amplo, e, para os objetivos deste artigo, chama-se
atenção do leitor de duas importantes orientações de pesquisa em IHC: por um lado, o
desenvolvimento teórico que passa pela elaboração de modelos e leis da interação humanocomputador advindos da influência da psicologia cognitiva (em suas variadas expressões
desde o cognitivismo até a cognição situada e distribuída) e da psicologia experimental,
bem como da semiótica23; e, por outro lado, o desenvolvimento de técnicas para projeto de
interação orientados por abordagens do design enquanto disciplina pelas engenharias de
requisitos e de usabilidade – esta última com a proposição de técnicas de Design Centrado
no Usuário (DCU).
Segundo Fallman (2011), é possível distinguir três ondas de desenvolvimento dos
estudos da IHC: a primeira, da década de 1980, com base nos modelos da engenharia
cognitiva de processamento humano, associados à perspectiva do computador como
ferramenta (fase em que se desenvolveu o conceito de usabilidade e técnicas de DCU, como
enunciadas por NIELSEN, 1993, entre outros autores); a segunda, dos anos 1990, com base
teórica do design participativo, cognição distribuída e teoria da atividade contou com o
emprego de técnicas da etnografia, etnometodologia e fenomenologia, entre outros; a
terceira, a partir do final dos anos 1990, conta com a progressiva incorporação de circuitos
digitais em produtos diversificados (computação embarcada), a ascensão das tecnologias
móveis (como celulares, smartphones e tablets, entre outros dispositivos), o que faz com
que o projeto da interação das pessoas com tantos dispositivos (e não apenas computadores)
seja cada vez mais complexo. Na terceira onda, o estudo da interação das pessoas com o
computador se estende para estudos ampliados de design da interação: “o design de
produtos interativos que fornecem suporte às atividades cotidianas das pessoas, seja no lar
ou no trabalho” (PREECE; ROGERS; SHARP, 2005, p.28), preocupação que também se
liga à avaliação de comportamento informacional de usuários em ambientes de
23 Barbosa e Silva (2010) apresentam algumas abordagens teóricas em IHC como as inspiradas na
psicologia experimental (como a lei de Hick-Hyman - que estima o tempo requerido para
opções de escolha em interfaces; ou a lei de Fitts – que relaciona o tempo médio para se
alcançar um alvo na interface); na psicologia cognitiva aplicada (como o modelo de
processador humano de Card, Moran e Newell; como a aplicação dos princípios da Gestalt à
elaboração de interfaces); da engenharia cognitiva (com as teorias da atividade de inspiração
cognitivista até a aplicação de teorias da atividade e Leontiev e Engeström); da cognição
distribuída e das abordagens etnometodológicas; e na semiótica (tanto a aplicação da semiótica
quanto da proposição da engenharia semiótica).
3225
entretenimento, apresentada por Case (2007). Questões como o design de experiência e a
ampliação da multidisciplinaridade nos projetos de software, com a interação de
profissionais do design e da comunicação, se estabelecem.
Ao longo de seu desenvolvimento, a disciplina de IHC problematizou diversas
qualidades
de
uso
dos
sistemas
interativos
como
usabilidade,
acessibilidade,
comunicabilidade, aplicabilidade, usabilidade universal, experiência de uso, entre outros.
De tais qualidades, a usabilidade é definida pela norma ISO 9241 (NBR 9241), citada por
Barbosa e Silva (2010, p.29), como “a capacidade que apresenta um sistema interativo de
ser operado, de maneira eficaz, eficiente e agradável, em determinado contexto de
operação, para a realização das tarefas de seus usuários”. Já a acessibilidade de sistemas
computacionais é definida por Barbosa e Silva (2010) como importante qualidade de uso
dos sistemas associada à flexibilidade da interface para se adaptar aos usuários com
diferentes necessidades (cegos, surdos, com problemas motores, disléxicos, entre outros). A
qualidade da experiência de uso é um conceito em discussão, mas endereça frequentemente
aspectos subjetivos da relação dos usuários com os produtos (PREECE; ROGERS; SHARP,
2005). A findability24 é, por sua vez, a qualidade da construção de sistemas associada à
arquitetura de ambientes digitais e não é inserida inteiramente nos estudos de IHC.
O projeto de sistemas que tenha boas qualidades de uso (como boa usabilidade,
acessibilidade, entre outras) está associado ao desenvolvimento de processos de construção
de produtos interativos centrados nos usuários, com a proposição de técnicas de DCU e
processos de engenharia de usabilidade e suas derivações (design de interação, design de
informação, design de experiência) 25. Silva (2012) comenta que não há consenso sobre o
processo de design de interação na área de IHC, sendo este composto por etapas iterativas:
a) identificação de necessidades (por técnicas como entrevistas, observação e investigação
contextual) e análise de requisitos de usuário e análise de tarefas; b) design e redesign
(projeto da interação e interfaces, com uso de protótipos) e c) avaliação (com o emprego de
24
25
Propriedade que reflete uma boa arquitetura de informação de um ambiente informacional
relativa à facilidade com que o usuário encontra o que precisa em suas estratégias de navegação
e busca (por browsing, searching ou busca direta) (MORVILLE; ROSENFELD, 2006).
Há emergência de conceitos e práticas relativas ao projeto/design de produtos interativos como:
1) Design de interação: projeto de interações das pessoas com produtos interativos, o que inclui
o design de interfaces; 2) Design da informação: projeto de organização dos conteúdos em sua
forma e linguagem, levando em conta aspectos da arquitetura da informação; 3) Design de
experiência: projeto de um produto interativo que leva em conta metas de alto nível que os
usuários têm, independentemente do produto (exemplo: projetar a experiência de um carro de
luxo que instigue sentimentos ou atitudes leva a incluir atributos e características diferentes de
um carro popular).
3226
testes com usuários – teste de usabilidade e comunicabilidade; ou testes sem a presença dos
usuários – avaliação heurística, teste por check-list, percurso cognitivo). Por outro lado, na
perspectiva da área do design, também a condução de projetos interação passa por etapas
semelhantes, conforme a metodologia do design thinking (VIANNA et al., 2012) – método
que busca a inovação de produtos e serviços em aspectos humanos, que envolve quatro
etapas: a) Imersão (compreensão empática do usuário/cliente/consumidor por meio de
observação e métodos etnográficos com vistas a identificar um insight para a solução de um
problema de design); b) análise e síntese (reflexões a partir do insight, com uso de técnicas
como o mapa de empatia - um diagrama dividido em seis áreas cujo centro é a
caracterização do cliente estudado pelas observações de seu comportamento); c) Ideação
(gerar ideias inovadoras, com participação de equipes multidisciplinares); d) Prototipação.
Barbosa e Silva (2010) mencionam que algumas técnicas auxiliam no design de um
novo produto ou de um novo projeto de interação em substituição de um já existente:
entrevistar usuários ou fazer pesquisas de campo para aprender sobre o produto antigo;
consultar processos e normas para entender as restrições de uso; fazer análise de logs de uso
e fazer uma análise competitiva. As técnicas para conhecer o perfil do usuário mais citadas
são os questionários, entrevistas, grupos focais e workshops, observação natural e estudo de
documentação (PREECE; ROGERS; SHARP, 2005, p.235). Barbosa e Silva (2010)
acrescentam à lista o brainstorming; a investigação contextual, na qual o investigador
(designer) exerce o papel de aprendiz do trabalho do usuário (modelo mestre-aprendiz); e a
classificação por cartões (técnica do card sorting) para organização da informação. Para
estarem mais próximos do universo do usuário, os projetistas devem registrar os perfis dos
usuários de acordo com características relevantes à construção do sistema – como
familiaridade com computadores, conhecimento do domínio da aplicação, idade, entre
outros aspectos. Barbosa e Silva (2010) apresentam a técnica de criação de personas –
personagens fictícios representativos dos perfis típicos de usuários do sistema – para
melhorarem a definição do sistema.
Conhecido o usuário, é importante saber como eles realizam suas tarefas, através da
análise de suas tarefas que envolve, normalmente, sua representação como uma sequência
de sentenças curtas (conhecidas como listas de atividades) e a classificação das coisas
envolvidas na realização das atividades (objetos e agentes). Há modelos para formalização
das análises de tarefas como o GOMS (Goals, Operators, Methods and Selection Rules),
HTA (Hierarquical Task Analysis), CTT (ConcurTaskTrees – Árvores de Tarefas
Concorrentes), entre outros (BARBOSA; SILVA, 2010). As técnicas de coleta de dados
3227
para realização de análise de tarefas envolvem observação e entrevista. Os estudos com
inspiração etnográfica têm sido abordados na literatura como possibilidades de melhor
compreensão das tarefas dos usuários (PREECE; ROGERS; SHARP, 2005).
Após conhecer o perfil dos usuários e suas tarefas, são traçadas metas de usabilidade
- as mais conhecidas são facilidade de uso, facilidade de aprendizado, boa memorabilidade,
segurança no uso, eficiência no uso, eficácia no uso, boa utilidade - e metas baseadas na
experiência - vistas como subjetivas e associadas à atratividade, motivação, satisfação, entre
outros aspectos – para os sistemas e aplicativos (PREECE; ROGERS; SHARP, 2005).
Com relação ao conjunto de técnicas propostas tanto para o projeto e avaliação de
interações centradas no usuário da área de IHC, percebe-se que algumas delas são
intensamente utilizadas pelo profissional designer ou analista, como a técnica da
prototipação26 (BALDUS; MACIEL; SOUZA, 2012). Baldus, Maciel e Souza (2012)
comentam que é um grande desafio compreender o que o usuário precisa e que há relativa
pouca utilização das técnicas de DCU (como análise dos usuários e suas tarefas, bem como
avaliações interativas das propostas de interface) durante o desenvolvimento de software.
Por outro lado, há dificuldades inerentes ao processo de análise de requisitos de sistemas
computacionais – de falta de compreensão do usuário sobre os sistemas e dos analistas do
domínio do usuário referenciada em Schwiderski (2011). Chama atenção, também, a pouca
atenção conferida ao uso dos sistemas em si mesmos na literatura de IHC ou da engenharia
de software. Sendo o uso dos sistemas colocado na etapa final do ciclo de vida de
desenvolvimento de software, os processos de operação e treinamento de usuários recebem
pouca atenção pela engenharia de software e Schwiderski (2011) aponta, em seu estudo de
campo, carência de treinamentos dos usuários.
Para os propósitos deste artigo, serão apresentadas as abordagens dos profissionais
bibliotecários e analistas de Tecnologia da Informação (TI) em relação a alguns dos
aspectos que aproximam a área de CI com a computação: como os profissionais
bibliotecários e analistas de TI abordam usuários para projetar ambientes informacionais;
26
A prototipação é uma técnica utilizada tanto para elicitar e validar requisitos no âmbito da
engenharia de requisitos, quanto para projetar interfaces e interações, no âmbito da IHC.
Consiste em se desenvolver protótipos de alta ou baixa fidelidade do produto, como produtos
interativos desenvolvidos em ferramentas como Axure ou Balsamic ou desenhos em papel,
respectivamente. Tais protótipos são apresentados aos potenciais usuários para melhorar a
comunicação usuário-analista e melhorar a definição de requisitos e/ou interfaces/interações do
sistema.
3228
como lidam com a usabilidade e a acessibilidade e realizam atividades de atendimento e
treinamento de usuários.
3 PRÁTICAS DE TRABALHO DE BIBLIOTECÁRIOS E ANALISTAS DE TI
RELATIVAS AOS USUÁRIOS
Foram realizadas entrevistas semiestruturadas com 17 bibliotecários e 16 analistas
de TI, no período de junho a setembro de 2012. No quadro 1, são apresentadas os
bibliotecários participantes (B1 a B17), atuantes em 13 diferentes instituições, em diversos
tipos de biblioteca. No quadro 2, por sua vez, são visualizados os analistas de tecnologia da
informação (A1 a A16), atuantes em fábricas de software (desenvolvedoras de software e
prestadoras de serviço de TI, numeradas de A a F), centros de inovação (Centros A e B empresas atuantes em projetos e produtos inovadores na área de TI) ou em empresas
usuárias de tecnologia da informação (Instituição A; Banco A; Banco B; Empresa E;
Empresa F).
QUADRO 1 – Participantes da pesquisa bibliotecários
Empresa
Universidade A (Privada)
Universidade B (Pública)
Faculdade A (Privada)
Faculdade B (Privada)
Empresa A (Autarquia)
Empresa B (Privada, sem fins
lucrativos)
Escola A (Privada – 1º e 2º graus)
Escola B (Pública – 1º grau)
Biblioteca pública A
Biblioteca pública B
Empresa C (Biblioteca digital de
instituição pública)
Empresa D (Biblioteca digital de
uma universidade)
Fundação A (Acervo Biblioteca
Nacional)
B1
B2
B3
B4
B5
B6
B7
B8
B9
Idade Gênero
Função
48
M
Diretor de biblioteca
53
F
Bibliotecária de referência
47
F
Coordenadora do setor de referência
36
F
Bibliotecária
32
F
Bibliotecária
31
M
Diretor do sistema de bibliotecas
26
F
Bibliotecária e arquivista
34
F
Bibliotecária
49
F
Bibliotecária
B10
45
F
Bibliotecária
B11
B12
B13
B14
29
47
38
60
F
F
M
F
Bibliotecária
Bibliotecária
Bibliotecário
Bibliotecária
B15
27
M
Analista de pesquisa
B16
29
F
Designer instrucional
B17
50
F
Bibliotecária
Fonte: Elaboração própria a partir de dados da pesquisa, coletados entre junho/2012 a
setembro/2012.
3229
QUADRO 2 – Participantes da pesquisa analistas de TI
Empresa
Fábrica A
Fábrica B
Fábrica C
Fábrica D
Fábrica E
Fábrica F
Fábrica G
Centro A
Centro B
Banco A
Idade Gênero
Cargo
43
M
Engenheiro de software
33
M
Consultor (Analista de requisitos)
40
M
Analista de requisitos
33
M
Gerente da equipe de desenvolvimento (Requisitos)
29
M
Líder de projeto (Engenheiro de usabilidade e requisitos)
28
M
Analista de sistemas (Consultor de implantação)
32
M
Analista de suporte
30
M
Sócio (consultor - designer de interação)
28
M
Designer de interação
31
F
Designer de interação
28
F
Designer de interface
34
F
Pesquisadora (Engenharia de usabilidade)
Coordenadora de equipe de serviços de suporte e infraA13 44
F
estrutura
A1
A2
A3
A4
A5
A6
A7
A8
A9
A10
A11
A12
Instituição A
A14
(empresa pública)
Empresa E (área
A15
de máquinas)
Empresa F
A16
(área de engergia)
37
F
Técnico judiciário (desenvolvimento de sistemas)
39
F
Analista de sistemas
33
F
Gerente de projeto sênior
Fonte: Elaboração própria a partir de dados da pesquisa, coletados entre junho/2012 a
setembro/2012.
3.1 Práticas de abordagens de usuários na concepção de produtos interativos e
sistemas de recuperação da informação
A participação do usuário no processo de desenvolvimento dos acervos de
bibliotecas e construção de sistemas computacionais foi levantada nas entrevistas junto aos
bibliotecários. Com relação à construção de sistemas de informação digitais, seis
bibliotecários entrevistados (B5, B6, B7, B8, B15, B16) participavam ou participaram de
projetos de sistemas de informação computadorizados, como sistemas de gestão eletrônica
de documentos, repositórios digitais e bibliotecas digitais. Como tais projetos normalmente
requerem processos que idealmente envolvem usuário – como o de elicitação de requisitos,
análise de sistemas e projeto de interfaces da perspectiva computacional – algumas
perguntas foram feitas aos bibliotecários entrevistados para se entender a participação dele
no processo de desenho de sistemas e a possível aplicação de técnicas de pesquisas de
usuário ou DCU em tais processos. Não se nota, nas falas dos bibliotecários com
experiências em bibliotecas digitais e repositórios de dados (B6, B7, B15, B16)
incorporação de todas as atividades de processo de DCU – como levantamento e
modelagem de usuários e suas tarefas; estabelecimento de requisitos de interface e
prototipação. Enquanto gestores dos repositórios, os bibliotecários das bibliotecas digitais
(Empresa C e Empresa D) se envolvem mais com o ciclo documental - detalhando
3230
processos de indexação e elaboração de resumos (B15, B16), padrões de interoperabilidade
de repositórios (B16) – e aplicam conhecimentos relativos ao processamento técnico das
bibliotecas e aspectos de gestão da informação, questões que não são contempladas na área
da engenharia de software ou da IHC. O processo de representação do material é também
um desafio, enfrentado de duas formas: ou com base em um perfil inferido de usuário e nas
funcionalidades do sistema ou com a participação de um perfil de usuário (produtor de
informação) na indicação de palavras-chave para recuperação – aspectos que evocam os
estudos da área de arquitetura da informação.
Em contraste com as experiências dos repositórios e bibliotecas digitais, duas
bibliotecárias (B5 e B8) apresentam experiências de análise de requisitos de sistemas de
GED (Sistemas de Gerenciamento Eletrônico de Documentos), configurando ferramentas
como Alfresco, Oracle ou Sharepoint. Elas relataram participar de processos de definição
do escopo e do orçamento de customização e implantação dos sistemas, papel que exerciam
em conjunto com a equipe de analistas de TI. A pesquisa de necessidades, nestes casos, era
realizada junto ao cliente e/ou usuário, por meio de entrevistas de pessoas-chave na
organização - técnica indicada pela engenharia de software e por participantes analistas de
sistemas da pesquisa (A4, A5) - e há indícios da aplicação da técnica do mestre-aprendiz
(técnica da investigação contextual de levantamento de dados junto a usuários em processos
de DCU), com o usuário no papel de mestre e o analista de aprendiz dos seus processos de
trabalho.
De maneira análoga à formação das coleções das bibliotecas pelo seu papel
funcional, também os sistemas computadorizados podem ser construídos a partir do
entendimento do negócio que será informatizado, a partir de uma análise de domínio,
entendido o domínio como campo de aplicação do software. Há coleta de documentos
relacionados às atividades dos usuários e seu entendimento para propósitos de organização
da informação ou de concepção de sistemas. O estudo da documentação do usuário e de
sistemas em uso ou similares também é apontado como referência pelos bibliotecários B5,
B8 e B15: “porque lá no GED tinha vários sistemas, tinha Document Image, [...], Document
Manager, [...], então a gente tinha que conhecer um pouco [de] [...] qual que era a
possibilidade de cada sistema pra poder oferecer pro cliente, né” (B5). O conhecimento das
possibilidades dos sistemas também aparece entre os analistas de sistemas A2, A6 e A16:
“Normalmente [...], levanta-se a necessidade de um determinado cliente e constroi-se um
sistema pra atender aquele cliente ou caso a gente tem o modelo próximo, a gente parte
daquele modelo e customiza” (A6).
3231
Além de conhecer dos sistemas similares (técnicas apontada por BARBOSA;
SILVA , 2010) para criação de sistemas, também as impressões pessoais e experiências dos
analistas
contam
na
construção
de
sistemas,
tanto
para
bibliotecários
no projeto das bibliotecas digitais, quanto para analistas de TI: “Tem um pouco de demanda
que vem dos próprios usuários, mas [...] a maioria eu diria que vem internamente, é da
cabeça das pessoas. [...] Alguns vêm de usuários ou de relatos de problemas que eles estão
tendo ou de validação assim de ideias com focus groups” (A1).
Se há semelhanças em aplicação de técnicas para levantar requisitos de sistemas –
entrevistas com usuários-chave, análise de documentos/domínio da aplicação, pesquisa de
sistemas similares, e até impressões pessoais – notam-se também diferenças entre analistas
e bibliotecários na modelagem de sistemas. O emprego de técnicas de análise de requisitos
(como o uso de pontos de função 27 pelos analistas de TI) e dos protótipos é indicado na fala
dos analistas, e não na fala dos bibliotecários. Outro aspecto importante a se notar é que os
analistas de TI (como A2, A3, A8) relatam a importância de formalizar/documentar os
requisitos levantados em entrevistas – seja com atas de reunião, ou com compartilhamento
de planilhas e documentos com a proposta do sistema junto aos clientes ou usuários (A3,
A8).
Os clientes – contratantes do sistema – também têm suas próprias impressões que
são levadas em conta para a construção do sistema: “às vezes o cliente já faz um
levantamento prévio, ele faz um levantamento prévio de necessidades, aí o nosso trabalho é
refinar isso a partir daí” (A2). Os interesses do cliente e dos usuários devem ser conjugados
para a criação do produto, na visão de A8: “quando a gente trabalha requisitos, [...] a gente
avalia o negócio né, dentro da nossa metodologia [...] [que vem do] design thinking, [...]
essa parte de problem framing, de identificar os stakeholders, de identificar quais são os
ganhos e as perdas de cada [um deles]”.
3.2 A abordagem da usabilidade
A temática da usabilidade não está incorporada no fazer dos profissionais
bibliotecários entrevistados, nem nos processos de construção de sistemas de recuperação
da informação, nem nos processos de avaliação da biblioteca e seus sistemas. Os
bibliotecários que têm funções de projeto de sistemas não cuidam de aspectos relativos aos
27
Técnica para medir o tamanho do software a partir de suas funcionalidades levantadas junto aos
usuários. É muito útil para se medir produtividade em projetos de desenvolvimento e
manutenção de produtos de software.
3232
projetos de interação e interfaces e é possível dizer que todos os entrevistados bibliotecários
não têm pleno entendimento do significado da usabilidade conforme a área de IHC –
qualidade de uso dos sistemas associado à sua facilidade de operação na realização de
tarefas dos usuários.
Dois bibliotecários (na biblioteca universitária e na biblioteca pública) citam, de
passagem, a palavra usabilidade como ligada à utilização do acervo (como se confundissem
usabilidade com uso). A facilidade de uso, acessibilidade e findability são atributos
associados à usabilidade nas bibliotecas digitais (B15 e B16), embora não sejam realizadas
pesquisas de usabilidade nos repositórios digitais ou nas bibliotecas digitais pelos
bibliotecários. Ao ser perguntada sobre o processo de construção da biblioteca digital, B16
comentou sobre o processo de tratamento documental e aplicação de padrões de
interoperabilidade de repositórios digitais:
Entrevistadora: tem alguma metodologia pra construção do repositório?
B16: tem, tem o padrão Oasis, né, Open Archives [...] esse processo é
assim – tem a entrada, né, o processo da entrada de conteúdo, que vem
pelos depositantes e que eu entro com uma mediação, tem todo tratamento
da informação ali dentro do repositório, tem a divisão em comunidades,
coleções, né, e tem aqui o usuário final que vai acessar isso do ponto de
vista de recuperação da informação.
Se, por um lado, a usabilidade de sistemas de informação não é objeto de trabalho
do bibliotecário, nota-se que a usabilidade não é incorporada em todos os processos de
trabalho entre os analistas entrevistados com perfil de analistas de requisitos, de negócio e
de suporte, sendo que alguns deles não souberem responder às questões específicas sobre a
usabilidade no trabalho. Há outros entrevistados com o perfil de analistas de sistemas que
vêem a usabilidade como o projeto de interfaces de boa qualidade, sem explicitar sua
incorporação nas etapas de concepção dos produtos (A2, A3, A6).
Por outro lado, o ponto de vista dos entrevistados engenheiros de usabilidade e
designers de interação e experiência (A4, A5, A10, A11, A12), é o da usabilidade em
processo (incorporação das técnicas de DCU nos processos de criação de produtos
interativos e de software). A participação da equipe de usabilidade, na visão deles, não pode
se restringir a avaliar interfaces ao final do desenvolvimento, dada a limitação o uso de
técnicas de inspeção, como avaliação heurística, para garantia da usabilidade, pois ela não
reflete maturidade de processos de DCU (A9). Há queixas de falta de valorização da
pesquisa de usuários tanto por parte de desenvolvedores de sistemas quanto dos clientes
contratantes dos serviços:
Contrataram a gente pra poder fazer teste de usabilidade no sistema, que
era horrível, muito ruim, e desenhar os protótipos de um sistema que
3233
funcionaria melhor.[...] Fiz um protótipo muito bacana, [...] [fiz]
protótipos funcionais, teste com protótipos, [...], só que são clientes muito
mais velhos no mercado, eles estão lá há 20 anos, eles ganham muito
dinheiro e quando a pessoa ganha muito dinheiro, ela acha que está
fazendo tudo certo né, então quando mostrei pra eles que estavam fazendo
umas coisas muito erradas, eles foram muitos reticentes e não aplicaram
do jeito que eu queria (A8).
Os entrevistados designers de interação e analistas de sistemas com perfil de
engenheiros de usabilidade aplicam técnicas da engenharia de usabilidade – como análise
de perfil de usuário, com combinação de técnica quantitativa e qualitativa (A8 e A12) para
pesquisar usuários e suas tarefas.
A metodologia, o método que a gente utiliza depende de cada projeto,
porque cada projeto lhe impõe restrições e um contexto diferente. Então a
gente pode ir a campo pra fazer entrevista, a gente pode ir a campo pra
observar, a gente pode ir na casa do usuário, pode fazer uma
ciberetnografia [...] [que], faz tempo que eu não faço isso, mas a gente já
chegou por exemplo a levantar impressões de usuários sobre determinada
[...] marca de celular, utilizando na época o Orkut (A9).
Há predomínio de técnicas qualitativas para se conhecer os usuários e suas tarefas,
mas não há sistematização de análise de tarefas, conforme informa A9. São feitas análises
de conteúdo das entrevistas categorizando os dados coletados (A9), embora o tempo seja
exíguo para fazer uma análise aprofundada de tarefas (A10). Com ou sem aprofundamento,
são geradas soluções de interações e interfaces por meio da criação de protótipos a serem
validados pelos usuários28.
No que diz respeito às técnicas de avaliação dos projetos de interação e de interfaces
(como avaliações heurísticas, inspeção por check-list e outras), nota-se que as técnicas de
inspeção são mais voltadas à validação de interfaces já finalizadas e mais facilmente
integradas ao desenvolvimento, aparentemente. Já os testes de usabilidade que envolvem a
observação das interações do usuário com o sistema são técnicas preferidas e privilegiadas
para avaliação de usabilidade, ocorrendo ou não em ambiente de controlado (como em
laboratório), nas fábricas A, D e G, centro A e centro B. Nota-se referência aos formalismos
para condução dos testes de usabilidade conforme apontados na literatura (PREECE;
ROGERS; SHARP, 2005), contendo termo de consentimento, questionário pré-teste,
entrevista pós-teste, roteiro de tarefas em algumas falas (A5, A8, A12) e, em todas elas, a
observação dos usuários em tarefas específicas é relatada. A análise dos resultados do teste
28
No Centro A, o processo de criação de soluções segue um modelo de processo de design
inspirado em uma empresa de design americana (IDEO) que envolve conjugar o interesse das
pessoas/usuários, negócios e tecnologia. A geração de ideias segue a etapa de compreender os
usuários e conjugar os seus interesses com os do cliente e as possibilidades da tecnologia.
3234
de usabilidade pode ser mais ou menos formalizada, e ela é levada à equipe de
desenvolvimento para que alterações sejam realizadas nas interfaces ou nas interações dos
sistemas.
3.3 A abordagem da acessibilidade
Seis dos participantes bibliotecários não teceram considerações sobre a
acessibilidade. Dos participantes que apresentaram suas impressões e as práticas relativas à
acessibilidade, nota-se que ela é vista como problemas de adaptação do ambiente físico para
pessoas com deficiência (sete bibliotecários da biblioteca universitária, bibliotecas
escolares, especializadas e pública B1, B4, B5, B11, B10, B12, B13) ou do ambiente online
(um bibliotecário de biblioteca universitária e dois da biblioteca digital B4, B15, B16) para
acesso a obras tanto no meio físico quanto online (biblioteca universitária, biblioteca
especializada e biblioteca pública - B1, B5, B9, B13); oferta de serviços para pessoas com
deficiência (visão de uma bibliotecária da biblioteca pública - B14). Para os participantes
das universidades e do setor pesquisado na Biblioteca Nacional, a acessibilidade é uma
questão que não é de responsabilidade exclusiva da biblioteca, pois há órgãos na instituição
que cuidam especificamente da acessibilidade (B1, B4). Já nas outras bibliotecas (escolar,
especializada – B10) a questão da acessibilidade é tratada quando há demanda ou é
intratável, por grandes dificuldades de adaptação do ambiente físico (B11, B12) e
problemas administrativos/burocráticos/financeiros (B1, B11, B12), os últimos também
observados na biblioteca pública (B13). A visão de todos eles, exceto de um participante de
biblioteca pública (B14), é compatível com a biblioteca adaptada, na distinção de biblioteca
adaptada e acessível29 de Paula e Carvalho (2009), abordando problemas do espaço físico,
como se nota na falta dos entrevistados B1 e B13: “acessibilidade eu acho que sobretudo
inclusão social (...) é um grande desafio nosso [...]. É uma tendência pros sites serem cada
vez mais democráticos, digamos assim” (B15).
De maneira semelhante à atenção destinada à acessibilidade nas bibliotecas, a maior
parte dos analistas entrevistados tratam da acessibilidade sob demanda (A3, A4, A5, A9,
A10, A11, A12), ou deram respostas vagas quando perguntados sobre a acessibilidade,
mostrando não conhecer tão bem o conceito (A2, A3, A13). Há também participantes que
disseram não realizar pesquisas sobre as qualidades de uso, de maneira geral, do software e
29
“Biblioteca adaptada é aquela que segue as regras do desenho acessível, com rampas, banheiros
adaptados, sinaleiras Braille, entre outras. A biblioteca acessível é a que disponibiliza a
informação em qualquer suporte e provê acesso a todas as pessoas que dela necessitam, ou seja,
segue os princípios do desenho universal” (PAULA; CARVALHO, 2009, p. 72).
3235
não responderam à pergunta (A6, A7, A15). Outros disseram ou não realizar pesquisas de
acessibilidade ou incorporá-la ao processo (A14) de desenvolvimento. Apenas três deles
(A1, A12 e A16) relataram a incorporação dos aspectos da acessibilidade em projetos de
produto ou pesquisas, e outros dois aproximaram o conceito da acessibilidade aos projetos
com boa portabilidade (A16) ou design universal (A8):
Pesquisadora: E acessibilidade, tem alguma preocupação lá?
A16: Lá tem de portabilidade. A gente passa um validadorzinho [de
portabilidade] tipo do W3C [desenvolvido internamente na empresa que]
vê se o código está conforme as regras do W3C. Ou seja, ele já está meio
caminho andado pra ser aberto em qualquer navegador. Portanto, já tá a
um caminho para a acessibilidade. [...] E tem uma documentação lá pra se
preocupar com a acessibilidade, porque que tem que se preocupar, mas
também não é nada assim... uma super regra não.
Entre os participantes, apenas dois dizem tratar da acessibilidade por meio do
estabelecimento de diretrizes que precisam ser seguidas no processo de desenvolvimento de
produtos (A1, A16) – diretrizes fundamentadas nas regras de acessibilidade da W3C (A16)
ou embutidas em guias de estilo para criação de interfaces de produtos (A1). A proximidade
da portabilidade ao conceito de acessibilidade é compatível com uma visão da
acessibilidade análoga à da biblioteca adaptada (PAULA; CARVALHO, 2009), embora tal
visão seja criticada por uma das participantes (A12).
A realização de teste de acessibilidade junto aos usuários aconteceu sob demanda
apenas por uma entrevistada (A12) e, à exceção de um trabalho de pesquisa de uma das
participantes analistas de TI que tratou do design de uma interface inclusiva com princípios
do design universal, e de uma bibliotecária que falou da adaptação dos serviços da
biblioteca, a acessibilidade é tratada como uma questão técnica – tanto de adaptação física
da biblioteca quanto do cumprimento das normas de acessibilidade no ambiente digital
pelos analistas de TI. Não é uma questão avaliada (não há relatos de teste de acessibilidade
pelos participantes). Os bibliotecários atuantes nas bibliotecas digitais creditam a
responsabilidade pela acessibilidade à equipe de TI e nota-se, nas entrevistas dos analistas
de TI pesquisados, que a acessibilidade é tratada sob demanda (como um requisito do
sistema) também à semelhança de se tratar a acessibilidade sob demanda na biblioteca.
3.4 Atendimento e treinamento de usuários
O atendimento aos usuários nas bibliotecas pesquisadas se dá por canais de contato
direto entre bibliotecário e usuários – e-mail, telefone, pessoalmente – sendo outros canais
indiretos menos citados. Tal característica confirma a relação de proximidade do usuário em
relação ao bibliotecário, e aponta para a informalidade dos contatos: o serviço de
3236
atendimento é realizado principalmente sob demanda do usuário, como aponta B10: "E
muitas das vezes o contato vem da necessidade deles (...). Então, seu contato é basicamente
esse, tudo informal". Com relação ao atendimento a usuários, percebe-se que os
bibliotecários não relatam grandes problemas, ou relatam dificuldades relativas à inclusão
digital ou informacional (dúvidas para entender o resultado da consulta à base, numeração
das estantes, normas bibliográficas).
Por outro lado, o contato direto dos analistas de TI com os usuários se dá no
processo de criação/construção da concepção de produtos e sistemas, bem como na sua
operação, por meio do suporte técnico. No entanto, nem todas as empresas, fábricas ou
centros participantes da pesquisa contam com equipes de suporte e atendimento aos
usuários. Em algumas fábricas pesquisadas (fábricas A, D e G, Centro A), os entrevistados
dizem que não há devida atenção para atendimento e suporte ao usuário, em parte porque os
produtos devem ter boa usabilidade para dispensar essa ajuda. Em outros casos (fábricas B,
C e Centro A) o suporte e ajuda são fornecidos por contratação, dependendo da natureza do
produto e do cliente, enquanto em outros (fábricas F e E, Empresas E e F, Banco A,
Instituição A, Centro B) há equipes específicas voltadas para atendimento e suporte a
usuários.
Ao
contrário
dos
trabalhadores
bibliotecários,
que
atendem
o
usuário
predominantemente por meio de contatos por telefone, e-mail e pessoalmente, nota-se que
predomina o atendimento aos usuários de sistemas em operação por mecanismos formais –
como aqueles que prevêem o uso de sistemas de controle de chamados, sistemas de call
center e help desk. Nota-se a perspectiva da eficiência do serviço como balizadora das
ações de atendimento ao usuário (número de horas para atendimento, controles da
efetividade dos chamados, estruturação dos atendimentos em catálogos de serviço), com
perspectiva claramente funcionalista. Os espaços para contato são mais associados à
solução de defeitos, mas não voltados para a participação do usuário na construção dos
sistemas, para a troca de experiências entre os usuários, ou para fazer o usuário conhecer
melhor os serviços ou o sistema. Nota-se que não há iniciativas similares às dos
bibliotecários de construção de blog, twitter ou facebook para os usuários dos sistemas. O
usuário é tratado de maneira individualizada pelo analista de TI, como um gerador de
problemas a serem solucionados, e aqui não se vê claras iniciativas para instruí-lo,
diferentemente da perspectiva dos bibliotecários.
Com relação à instrução e treinamento de usuários, sete dos 13 entrevistados
bibliotecários disseram não realizar treinamento (casos na biblioteca digital, biblioteca
3237
especializada, biblioteca escolar, biblioteca pública e Biblioteca Nacional) pelas
dificuldades de treinamento intrínsecas à instituição de natureza pública em que
trabalhavam, que apresentam diversidade grande de usuários (B13, B14, B17) ou pouca
disponibilidade de recursos para treinamento, ou por o realizarem sob demanda (caso das
bibliotecas especializadas). Dois bibliotecários na biblioteca pública vêem a orientação do
usuário, realizada sob demanda do usuário/visitante da biblioteca, como uma forma de
treinamento.
Os participantes bibliotecários que realizavam treinamento de usuários, quando
envolvidos na instrução para uso de portais digitais (como da CAPES, ou intranet de
empresas, ou repositórios ou bibliotecas digitais), orientavam o usuário diretamente no uso
dos referidos sistemas, por meio de exercício-prática e uso do datashow (slides). Nas
bibliotecas universitárias, verificou-se, também, as práticas de visita guiada e atendimentos
específicos e individualizados para orientação de elaboração de trabalhos acadêmicos e
normas bibliográficas.
Se nem todos os bibliotecários se envolvem com treinamento de usuários, o
treinamento não é atividade que está obrigatoriamente incluída no trabalho dos analistas de
TI. Se, no caso das bibliotecas públicas, o treinamento dificilmente acontecia pela própria
dispersão do público, também os usuários tratados como público (usuários de recursos web,
por exemplo) não recebem treinamento, como relatam os participantes designers de
interação (A8, A9, A10, A11, A12) e um analista de sistemas/engenheiro de software (A1).
Neste caso, o cuidado com manuais de usuário e tutoriais se faz presente.
O treinamento pode ser dado sob contratação, no caso das fábricas B e C. Mas, um
dos participantes diz que “dificilmente, hoje, o cliente contrata o treinamento de usuários”
(A2), talvez por não visto como necessário pelos mesmos motivos apontados para não
realização de treinamento pelos bibliotecários B7, B5 e B8 em sistemas de documentos,
relacionados ao fato do usuário já conhecer bem os documentos e dispensaria o treinamento
e manuais: “tem contrato que o usuário não quer nem manual, que o cliente não quer nem
manual e acontece, que às vezes é uma coisa pra eles muito do negócio, muito óbvia”(A3).
Porém, uma das participantes – que tem perfil de analista de negócio e acompanha o uso
dos sistemas e chamados de suporte (A15) – relata que o treinamento é um dos fatores
determinantes de sucesso ou falha na implantação e operação dos sistemas, assim como
também Schwiderski (2011), na revisão de literatura.
Já no caso das fábricas D, E e F, o treinamento faz parte do processo padrão dos
sistemas e consiste da apresentação do sistema e realização de exercício-prática,
3238
essencialmente, à semelhança da abordagem de treinamento e atendimento de usuários de
bibliotecas. Quando o número de usuários é grande, nem todos são treinados (A4, A15).
Nestes casos, há treinamento de alguns deles, os quais recebem a incumbência de
disseminar o que aprenderam do sistema a outros usuários (são multiplicadores ou usuárioschave). O treinamento pode ser destinado a equipes que não estão associadas ao
desenvolvimento do sistema, como equipes de RH (A14, A15). Tal aspecto contrasta com a
realização do treinamento dos recursos da biblioteca estar sempre a cargo dos
bibliotecários, e não fragmentada no ambiente de trabalho para outras funções ou setores.
3.5 Uso dos sistemas
Entre os profissionais analistas de TI, a análise do uso das funcionalidades dos
sistemas não é realizada pela maioria dos entrevistados, sendo que deles, apenas cinco (A1,
A2, A8, A12, A15) disseram ter sido realizada algum tipo de análise de uso de sistemas,
dos quais dois fazem análise de logs para subsidiar mudanças nos mesmos (A1, A8), uma
disse ter feito análise de uso em uma pesquisa no trabalho (A12), enquanto outra disse ter
realizado uma pesquisa informal de quem efetivamente usa um determinado sistema com
objetivos administrativos (A15):
Sabe qual a pesquisa que eu tô fazendo atualmente? Eu tô brincando, né,
não tem nada haver com pesquisa, mas que a gente tá vendo é que [a
empresa E] contratou x licenças do SAP. Aí, a gente tá fazendo uma
auditoria agora e viu que tem muito mais. [...] O gerente [...] falou assim
“usa o seu conhecimento dos usuários, que você conhece todo mundo”,
que tem muitos anos que eu trabalho lá, “você conhece todas as filiais,
[...], procura esses coordenadores, e vê o que pode melhorar” (A15).
Como se nota na fala acima, três pesquisados (A4, A15, A16) têm uma visão
normativa do uso dos sistemas pelos usuários. Há crítica acerca da quantidade de
funcionalidades que não são utilizadas (como os livros que não consultados nas
bibliotecas), o que é visto como problema cuja causa percebida está associada aos processos
de construção de software (A4, A16): “eu acho que as pessoas estão começando a ficar
mais atentas com isso [ao que é usado nos sistemas] [para] evitar desperdício” (A16).
Nota-se, ainda, na fala de A15 acima, falta de sistematização da condução de
pesquisa de uso, a exemplo do que ocorre com a falta de apoio teórico para o trabalho dos
bibliotecários. Os outros dois analistas que apontaram realizar pesquisa de uso, o fazem
para subsidiar mudanças nos produtos ou serviços (fábricas A e G). Há referência às
análises métricas por dois pesquisados (A1 e A8) – como análise de número de
visualizações de páginas de um website – que também dizem respeito às técnicas de
pesquisa similares à pesquisa bibliométrica em bibliotecas, alinhada ao paradigma
3239
tradicional de estudos de usuários: as funcionalidades e recursos utilizados no sistema são
medidos quantitativamente e analisados para a tomada de decisões sobre mudanças nas
funcionalidades e/ou interface dos aplicativos. Uma entrevistada, embora não faça análise
métrica de dados indiretos coletados de usuários (estatísticas de downloads) ou diretos
(mensagens de feedback sobre o produto com avaliações negativas ou positivas reportadas
pelos usuários) diz que elas podem subsidiar mudanças, mas que nem sempre o acesso aos
dados é possível, pois está nas mãos do cliente (A11).
4 CONSIDERAÇÕES FINAIS
Os processos de trabalho relativos aos usuários – atendimento e treinamento;
pesquisa de necessidades e requisitos para sistemas; estudos de uso; abordagem da
usabilidade e da acessibilidade – realizados por analistas de TI e bibliotecários não apontam
realizações de pesquisas de usuários realizadas de maneira sistemática, à exceção de
processos de construção de sistemas e aplicativos realizados por designers de interação e
especialistas em usabilidade, que aplicam técnicas de DCU.
Os levantamentos de requisitos de sistemas realizados junto a usuários, embora
empreguem técnicas qualitativas – como entrevistas e estudo de documentação dos sistemas
existentes ou do domínio com alguma sustentação na engenharia de requisitos – são
fundamentadas essencialmente, na vivência prática dos entrevistados (B5, B8, B7, A3).
Embora não seja a regra geral, usabilidade e acessibilidade são temas emergentes
ainda não instituídos na prática de todos os profissionais entrevistados. A usabilidade de
sistemas computadorizados é presente na prática e na fala dos analistas de TI com
atribuições de design de interação e usabilidade, mas não é instituída em todos os processos
de software entre os entrevistados com outros perfis (analistas de sistemas, de negócio, de
suporte), nem na prática de trabalho dos bibliotecários. A acessibilidade – em sua
compreensão como acesso a recursos dos sistemas físicos ou digitais – é mais presente na
fala e na prática dos bibliotecários, mas tanto para estes profissionais quanto para os
analistas de TI, é uma questão tratada essencialmente sob demanda. Já a incorporação da
temática da arquitetura da informação é presente na fala dos bibliotecários e não dos
analistas de TI.
De maneira geral, há, também, pouco conhecimento do uso dos sistemas ou das
bibliotecas pelos seus usuários, tanto por analistas quanto bibliotecários, como forma de
subsidiar mudanças nos sistemas, predominando sua importância para fins administrativos.
Bibliotecários e analistas de TI empregam poucos métodos sistemáticos para conhecer seus
usuários no cotidiano profissional.
3240
REFERÊNCIAS
ATTARHA, Mina; MODIRI, Nasser. Focusing on the Importance and the Role of
Requirement Engineering. In: INTERNATIONAL CONFERENCE ON INTERACTION
SCIENCES (ICIS), 4., 2011, Busan. Proceddings... Busan: IEEE, 2011. p. 181-184.
BALDUS, M. F. O; MACIEL, C.; SOUZA, P.C. Um diagnóstico do uso da modelagem da
interação em métodos ágeis no mercado de software. In: SIMPÓSIO DE FATORES
HUMANOS EM SISTEMAS COMPUTACIONAIS (IHC 2012), 10., 2012, Cuiabá.
Anais... Porto Alegre: Sociedade Brasileira de Computação – SBC, 2012. p. 17-20.
BARBOSA, S. D. J.; SILVA, B. S. Interação humano-computador. Rio de Janeiro:
Elsevier, 2010.
CASE, Donald O. Looking for Information: A Survey of Research on Information
Seeking, Needs and Behavior. 2 ed. Elsevier Ltd., 2007.
CHOO, C. W. A organização do conhecimento: como as organizações usam a informação
para criar significado, construir conhecimento e tomar decisões. São Paulo: Editora Senac,
2003. p. 63-120.
FIGUEIREDO, N. M. Estudos de usuários. In:______. Estudos de uso e usuários da
informação. Brasília: IBICT, 1994. p. 7-19; 65-85.
FALLMAN, Daniel. The new good: exploring the potencial of philosophy of technology to
contribute to human-computer interaction. In: CONFERENCE ON HUMAN FACTORS IN
COMPUTING SYSTEMS (CHI’11). Proceedings… Vancouver, BC, Canada: ACM, 2011.
p. 1055-1060.
GONZÁLEZ TERUEL, Aurora. Los estudios de necessidades y usos de la información:
fundamentos y perspectivas actuales. Ediciones Trea S. L., 2005.
NASCIMENTO, Luciano Prado Reis. O usuário e o desenvolvimento de sistemas.
Florianópolis: Visual Books, 2003.
NIELSEN, J. Usability Engineering. Cambridge, MA: Academic Press, 1993.
MORVILLE, Peter; ROSENFELD, Louis. Information Architecture for the World Wide
Web. 3 ed. O’Reilly Media Inc, 2006.
PAULA, S. N.; CARVALHO, J. O. F. Acessibilidade à informação: proposta de uma
disciplina para cursos de graduação na área de biblioteconomia. Ciência da Informação,
Brasília, v. 38, n. 3, p. 64-79, set./dez. 2009 .
PREECE, J.; ROGERES, Y.; SHARP, H. Design de interação: além da interação humanocomputador. Porto Alegre: Bookman, 2005.
ROCHA, Eliane Cristina de Freitas. Usuário da informação, um velho (?) (des)conhecido:
usuários da informação em diferentes profissões da informação. 2013. 364 f. Tese
(Doutorado em Ciência da Informação) – Universidade Federal de Minas Gerais, Belo
Horizonte, 2013.
SILVA, T. S. A framework for integrating interaction design and agile methods. 2012.
110 f. Tese (Doutorado em Ciência da Computação) – Faculdade de Informática, PUCRS,
Porto Alegre, 2012.
3241
SCHWIDERSKI, Antônio Carlos. Desenvolvimento de sistemas de informação do
Hospital Colônia Adauto Botelho: fatores que interferem nos fazeres de levantamento de
requisitos. 2011. 94 f. Dissertação (mestrado profissional) – Universidade Estadual de
Londrina, Programa de Pós-Graduação em Gestão da Informação, Londrina, 2011.
SOMMERVILLE, Ian. Engenharia de software. São Paulo: Addison Wesley, 2003.
VIANNA Maurício et al. Design Thinking - Inovação em Negócios. MJV Press, 2012.
3242
WEB SEMÂNTICA: INTRODUÇÃO A RECUPERAÇÃO DE DADOS USANDO
SPARQL
SEMANTIC WEB: INTRODUCTION TO DATA RECOVERY USING SPARQL
José Eduardo Santarém Segundo
Resumo: A Web Semântica faz parte do cotidiano de nossas vidas, a publicação de grandes
volume de dados através do Linked Data é um dos principais produtos materializados como
resultado da proposta inicial de Tim Berners-Lee, publicada na Scientific American, em
2001. Diante do exposto é necessário concentrar esforços que vão além dos modelos para
estruturar e efetivar a publicação de dados em formato semântico, torna-se necessário
estudar atentamente modelos de recuperação que tornem usuais estes dados. O objetivo
deste trabalho é apresentar o protocolo SPARQL e suas possibilidades, como um dos
principais aliados no processo de recuperação da informação em ambientes semânticos. A
metodologia utilizada nesta pesquisa conta com uma pesquisa bibliográfica e documental
seguida de um procedimento exploratório em torno do uso do protocolo SPARQL. Como
resultado verificou-se a disponibilidade de ferramentas que tornam possível o efetivo uso
do protocolo SPARQL para recuperação da informação em ambientes semânticos.
Palavras-chave: Web Semântica. Recuperação da Informação. SPARQL. Linked Data.
Abstract: The Semantic Web is part of our everyday lives, the publishing of large volumes
of data through Linked Data is a leading product materialized as a result of the initial
proposal by Tim Berners-Lee, published in Scientific American in 2001. Given the above it
is necessary to focus efforts that go beyond the models to structure and conduct the
publication of data in semantic form, it is necessary to carefully study recovery models that
make these data useful. The objective of this paper is to present the SPARQL protocol and
its possibilities, as a key ally in the process of information retrieval in semantic
environments. The methodology used in this research has a bibliographical and
documentary research followed by an exploratory procedure around the use of the SPARQL
protocol. As a result there was the availability of tools that make possible the effective use
of the SPARQL protocol for information retrieval in semantic environments.
Keywords: Semantic Web. Information Retrieval. SPARQL. Linked Data.
1 INTRODUÇÃO
Além das “nuvens”: expandindo as fronteiras da Ciência da Informação, tema do
Enancib 2014, retrata com muita clareza a situação atual das pesquisas e principalmente das
perspectivas de pesquisa que envolvem a Ciência da Informação atualmente.
Enquanto grande parte dos chamados objetos de estudo da Ciência da Informação
encontram-se em processo de mudança para o contexto digital, outros já estão a algum
tempo encapsulados nas nuvens. Dentre estes estudos e pesquisas encontram-se os
conceitos e tecnologias que envolvem a Web Semântica, proposta descrita pela primeira vez
em 2001, quando Tim Berners-Lee, James Hendler e Ora Lassila, publicaram na revista
Scientific American o texto “The Semantic Web”.
3243
Desde a proposta inicial de 2001, a Web Semântica vem ganhando força e
agregando novas tecnologias, funcionalidades e evoluindo para tornar real o processo de
construção de ambientes semânticos. Tecnologias como RDF (Resource Description
Framework), XML (eXtensible Markup Language), OWL (Web Ontology Language) e
todos os conceitos que as envolvem, ganham novas versões, descritos com clareza no W3C
(World Wide Web Consortium), e tornam possível a materialização do conceito da Web
Semântica. As tecnologias citadas estão diretamente relacionadas ao processo de construção
da informação e armazenamento das mesmas, constituindo assim ambientes que possam ter
conjunto de dados ligados semanticamente.
O conceito de Web Semântica e de ligação entre dados deu origem ao Linked Data,
um conjunto de dados em formato aberto, que se apresenta como um grande ambiente de
informação através de dados ligados semanticamente entre si em vários lugares ao redor do
mundo, caracterizando-se por utilizar a internet (a nuvem) como seu hospedeiro. É possível
afirmar que o Linked Data é uma materialização dos conceitos da Web Semântica.
Não é necessário muito esforço para ter acesso a toda essa imensidão de tecnologias
que tem tornado real a ideia da construção de uma Web Semântica. Apesar do mapa do
Linked Data não ser atualizado desde 2011, o conjunto de dados disponíveis continua
crescendo em escala logarítmica e é possível identificar muita informação pronta para
acesso em vários datasets (nome dados as bases de dados no Linked Data) ao redor do
mundo.
Essa grande disponibilidade sugere que utilizemos formatos e estruturas adequadas
de pesquisa para encontrar e principalmente fazer uso de todo esse conjunto de dados.
Desta forma o objetivo deste trabalho é apresentar o protocolo SPARQL e suas
possibilidades como um dos principais aliados no processo de recuperação da informação
em ambientes semânticos. A metodologia utilizada nesta pesquisa conta com uma pesquisa
bibliográfica e documental seguida de um procedimento exploratório, sendo que a parte da
pesquisa que envolveu a metodologia de pesquisa bibliográfica e pesquisa documental
foram realizadas em literatura da área de Ciência da Informação e documentação técnica
disponível no site do W3C. A pesquisa de caráter exploratório foi realizada através de
aplicações sucessivas de consultas a conjuntos de dados diversos em formato de arquivos
RDF e também em ambientes de dados disponíveis no ambiente Linked Data, sempre
utilizando-se o protocolo Sparql para recuperação de dados.
3244
2 WEB SEMÂNTICA: ESTRUTURA, ARMAZENAMENTO E PUBLICAÇÃO DE
DADOS
Após o ano 2001 quando Tim Berners-Lee, James Hendler e Ora Lassila publicaram
na revista Scientific American o texto “The Semantic Web” algumas áreas de pesquisa, em
especial dentro da Ciência da Informação e da Ciência da Computação, têm direcionado
esforços para colocar em prática os conceitos abordados no texto citado.
Nos últimos anos vários elementos foram surgindo e ampliando o contexto da ideia
original de Berners-Lee. O W3C iniciou um processo de publicar, efetivar e disseminar um
conjunto de tecnologias que foram se agregando em busca da Web Semântica. Vários
projetos ao redor do mundo também evoluíram de forma a constituir ambientes semânticos,
tanto do ponto de vista de estrutura informacional quanto da possibilidade de recuperação
semântica da informação.
O projeto da Web Semântica tem como ponto fundamental a criação de uma nova
estrutura de armazenamento de dados. O ponto principal está na separação da apresentação
do conteúdo e do conteúdo da estrutura, tratando as unidades atômicas de uma informação
como componentes independentes.
O desafio da Web Semântica vem sendo, a cada dia, prover uma linguagem capaz de
expressar ao mesmo tempo dados e regras, de forma a possibilitar a dedução de novos
dados e regras a partir de qualquer sistema de representação de conhecimento a ser
importado ou exportado na Web (SANTAREM SEGUNDO, 2010).
Diferente da chamada Web de Documentos (a primeira Web), tem-se promovido a
construção da Web de Dados, uma iniciativa do W3C com grande apelo em todo o mundo.
A Web de Dados propõe uma estrutura que sugere a ligação entre dados publicados em
bases de dados abertas disponíveis livremente na Internet. Esses dados publicados estão
associados a vocabulários padronizados, ontologias e aplicação de inferências (W3C, 2010).
Para disponibilizar dados numa estrutura semântica é necessário usar partes (ou
todo) do modelo descrito por Berners-Lee em 2001, no chamado bolo de noiva (layercake),
estrutura de camadas que apresenta a Web Semântica. Destaca-se neste quesito a linguagem
RDF, também indicada para representação de dados abertos.
Um dos principais objetivos da linguagem RDF é justamente criar uma rede de
informações a partir de dados distribuídos. Essa característica de constituição de redes se dá
pela relação existente entre o modelo de construção de triplas do RDF e o modelo
matemático conhecido como grafo.
3245
Um grafo é um modelo matemático muito poderoso que pode ser aplicado na
resolução de um conjunto de problemas. É composto por um conjunto de vértices e
arestas/arcos (SANTAREM SEGUNDO, 2010).
De acordo com o W3C, o RDF é uma linguagem de uso geral para representar
informações na Web. O RDF tem como princípio fornecer interoperabilidade aos dados, de
forma que possa contribuir com a recuperação de informações de recursos na Web.
Segundo Lassila,
RDF é uma aplicação da linguagem XML que se propõe ser uma base
para o processamento de metadados na Web. Sua padronização estabelece
um modelo de dados e sintaxe para codificar, representar e transmitir
metadados, com o objetivo de torná-los processáveis por máquina,
promovendo a integração dos sistemas de informação disponíveis na Web
(LASSILA, 1999).
O modelo RDF é constituído de três objetos básicos: recursos, propriedades e
valores. Um recurso é uma informação (página web, livro, cd, pessoa, lugar, documento
disponível em um repositório ou biblioteca digital) que pode ser identificada por uma URI
(Universal Resource Identificator). Propriedades são as informações que representam as
características do recurso, ou seja, são os atributos que permitem distinguir um recurso de
outro ou que descrevem o relacionamento entre recursos. Os valores são os dados que
representam a informação a ser descrita.
A declaração é a constituição da informação completa, que compreende um recurso
com suas propriedades e valores para as propriedades. Uma URI pode ser um local ou
página na WEB como uma URL (Unified Resource Locator) ou ainda outro tipo de
identificador único.
Além de representar graficamente uma informação através de grafos, o modelo RDF
pode ser representado através da sintaxe XML para uso como artefato computacional.
O modelo básico de representação dos dados é o RDF, porem para que se possa
publicar dados e principalmente torna-los disponíveis para serem recuperados com mais
eficiência e eficácia, é necessário que o esquema lógico estrutural dos dados esteja sob uma
ontologia, ou minimamente utilizando-se de vocabulários de representação de
conhecimento padronizados e reconhecidos.
Utilizar ontologias e suas relações é uma das maneiras de se construir uma relação
entre termos dentro de um domínio, favorecendo a possibilidade de contextualizar os dados,
tornando mais eficiente e facilitando o processo de interpretação dos dados pelas
ferramentas de recuperação da informação.
3246
Para Guarino (1998, p.7), ontologia é “uma maneira de se conceituar de forma
explícita e formal os conceitos e restrições relacionados a um domínio de interesse”. Numa
visão mais tecnológica, o termo refere-se a um artefato computacional, que em uma visão
simplista, pode ser descrito como uma hierarquia de conceitos relacionados entre si através
de uma classificação de parentesco (hipernímia e hipônimo), também chamada de
taxonomia.
A definição de Jacob aproxima-se muito do conceito de ontologia que mais se aplica
à Ciência da Informação quando no contexto da recuperação semântica de informações:
Ontologias são categorias de coisas que existem ou podem existir em um
determinado domínio particular, produzindo um catálogo onde existem as
relações entre os tipos e até os subtipos do domínio, provendo um
entendimento comum e compartilhado do conhecimento de um domínio
que pode ser comunicado entre pessoas e programas de aplicação
(JACOB, 2003, p.19).
Construir ontologias nem sempre é o melhor ou mais rápido caminho para
disponibilizar dados em formato semântico. Em grande parte das vezes utilizar-se de
ontologias prontas e universalmente conhecidas e reconhecidas por uma determinada
comunidade, acelera o processo de publicação de dados, mas principalmente favorece o
processo de recuperação da informação em ambientes semânticos.
Não utilizar esquemas lógicos como as ontologias e os principais vocabulários para
descrever dados a serem publicados certamente é o pior caminho para publicação de dados
em formato semântico, principalmente do ponto de vista da recuperação da informação.
Apesar da criação de etiquetas para representação das propriedades do RDF ser
livre, há um grupo de vocabulários que são utilizados em larga escala nas principais
ontologias conhecidas e também em grande parte dos exemplos de publicação de datasets
em formato semântico disponíveis na Internet.
Dentre os vacabulários mais utilizados encontramos:
Friend-of-a-Friend (FOAF) , o vocabulário para descrever pessoas.
Dublin Core (DC) define os atributos gerais de metadados, baseado no padrão de
metadados Dublin Core.
Comunidades Online Semanticamente Interligados (SIOC) , vocabulário para
representar as comunidades online.
Descrição de um projeto (DOAP) , vocabulário para descrever projetos.
Simples Sistema de Organização do Conhecimento (SKOS) , vocabulário para
representar
estruturado.
taxonomias,
vocabulários
controlados
e
conhecimento
pouco
3247
Music Ontology, prevê condições para descrever artistas, álbuns e faixas.
Creative Commons (CC) , o vocabulário para descrever termos de licença.
Além dos listados, há ainda uma séria de outros vocabulários disponíveis, assim
como vários são os modelos de esquemas e ontologias disponíveis para serem utilizados e
principalmente consumidos livremente. Uma das ideias materializada, que agrega e
congrega esses esquemas, vocabulários e principalmente dados, é chamada de Linked Data.
3 LINKED DATA
Pensando em um modelo associativo de publicação de dados estruturados na Web,
foi constituído o Linked Data (dados ligados). Organizado por Tim Berners-Lee tem como
característica principal o estabelecimento de links entre dados de fontes distribuídas.
Segundo Heath e Bizer (2011), “o Linked Data é um conjunto de melhores práticas
para publicação e conexão de dados estruturados na Web, permitindo estabelecer links entre
itens de diferentes fontes de dados para formar um único espaço de dados global”.
Para Berners-Lee (2006),
a Web Semântica não trata apenas de depósito de dados na web. Trata-se
de fazer ligações, de modo que uma pessoa ou máquina possa explorar
esse conjunto de dados. Com Linked Data, quando você tem um pouco de
dados, você pode encontrar outros que estão relacionados.
A construção do Linked Data está baseada em quatro princípios publicados por
Berners-Lee (2006):
Usar URIs como nomes para os itens.
Usar URIs HTTP para que as pessoas possam consultar esses nomes.
Quando alguém consulta uma URI, prover informação RDF útil.
Incluir sentenças RDF com links para outras URIs, a fim de permitir que itens
relacionados possam ser descobertos.
O projeto tem crescido muito nos últimos anos, em 2007 o Linked Data era
constituído de aproximadamente um bilhão de declarações RDF, interligados por 120.000
links RDF. Em 2011 eram 52 bilhões de declarações RDF. Hoje não há números expressos
sobre o conjunto de ligações que não para de crescer.
Com certeza a base de maior tamanho e também maior destaque no Linked Data é a
DBpedia.
A DBpedia é uma interface orientada a dados, constituída a partir de um esforço da
comunidade para extrair informação estruturada da Wikipédia e tornar esta informação
disponível na web. Atualmente está sendo constituída a DBpedia Live que é uma estrutura
3248
funcional que tem como objetivo transferir diretamente os dados do Wikipédia para o
padrão semântico do DBpedia.
Ressalta-se a grandeza e proporção que o Linked Data vem tomando, a base de
conhecimento DBpedia atualmente descreve mais de 4 milhão de itens, das quais 3,22
milhões são classificados de forma consistentes por ontologias, incluindo 832 mil pessoas,
63 mil lugares, além de músicas, filmes, games, espécies, doenças entre outras informações.
Os dados da DBpedia apresentam estes itens em até 119 idiomas diferentes. A base de
conhecimento DBpedia, em todos idiomas, consiste em aproximadamente 2,5 bilhões de
declarações RDF, dos quais 470 milhões foram extraídos da edição Inglês da Wikipedia.
(DBPEDIA, 2014).
Outra base de destaque, principalmente porque praticamente 95% de seus dados tem
precisão manual é a base Yago. Essa base relaciona 2 milhões de entidades (pessoas,
organizações, cidades, etc.). São aproximadamente 20 milhões de fatos sobre essas
entidades.
Destaca-se ainda a integração de dados geográficos, tais como nomes de lugares em
vários idiomas, altitude, população e outras fontes publicados pelo banco de dados
Geonames que está disponível para download gratuitamente sob uma licença Creative
Commons. O dataset do Geonames contém mais de 10 milhões de nomes geográficos e é
composto por 8 milhões de recursos exclusivos. Todos os recursos são classificados em
uma das nove classes de recurso e ainda subcategorizados em um dos 645 códigos de
recurso. Os dados são acessíveis gratuitamente através de um número de webservices e uma
exportação de banco de dados diariamente. O webservice Geonames.org tem atendido
aproximadamente 30 milhões de requisições diárias. (Geonames, 2013)
Outra característica a ser abordada nos dados publicados no Linked Data é a
disseminação de instrumentos de controle de vocabulário e controle de autoridade. O
AGROVOC é um tesauro desenvolvido a partir de 1980 que atualmente é referência para
temas ligados à agricultura, piscicultura, silvicultura entre outros assuntos relacionados ao
meio ambiente. O AGROVOC é utilizado mundialmente por pesquisadores, bibliotecários,
gestores de informação e outros profissionais para indexar, recuperar e organizar dados em
sistemas de informações agrícolas. Utilizando-se da terminologia SKOS, modelo apropriado
para publicação de tesauros na web, o AGROVOC pode ser consultado assim como
interligado com outros recursos para provimento de dados em formato semântico.
(AGROVOC, 2014).
3249
Há ainda uma grande diversidade de bases de dados, que vão desde informações
sobre Ciências da Vida (GeneID, PubMed, Geo Species, Gene Ontology, etc), Dados
Geográficos (Aeroportos, Earth, Linked GeoData, etc), Dados de Uso Geral (Slideshare,
Semantic Tweet, Delicious, Flickr, etc), Mídia (BBC, Music Brainz, New York Times,
Last.FM, etc), Publicações (IEEE, ePrints, CiteSEER, theses.fr, etc) e Dados
Governamentais (Patentsdata.gov.uk, researchdata.gov.uk, transportdata.gov.uk, etc).
Todos estes chamados datasets estão listados no mapa do Linked Data publicado em
2011. Atualmente existe uma infinidade de outros datasets, que não faziam parte do mapa
do Linked Data em 2011, com um volume imenso de declarações RDF sobre os mais
variados tipos de dados.
4 PROTOCOLO SPARQL E A RECUPERAÇÃO DA INFORMAÇÃO
Os capítulos apresentados até agora definem bem a estrutura informacional que se
construiu a partir das tecnologias da Web Semântica. Grande parte do conteúdo de pesquisa
disponível em bases nacionais e internacionais cita os padrões e tecnologias abordados aqui
e indicam o caminho das pedras no processo de construção de bases de dados ligados no
modelo do Linked Data.
Com essa grande oferta de dados disponíveis é necessário um segundo passo, o
desfrute desses datasets. É necessário transformar todo esse conjunto de informações em
conhecimento útil e aplicável, de forma a mudar positivamente a vida das pessoas. Essa era
a proposta inicial de Berners-Lee com a Web Semântica.
A busca por pesquisas já realizadas sobre recuperação da informação em ambientes
semânticos nos leva a um conjunto de textos publicados, sendo que a maioria deles
apresentam contextualizações teóricas ou ainda modelos de recuperação da informação que
podem ser aplicados a dados ligados. Poucos desses textos apresentam informações precisas
sobre como proceder ao lidar com dados como os disponíveis no Linked Data.
Nessa pesquisa, temos como foco apresentar e discutir o protocolo SPARQL
(Simple Protocol and RDF Query Language) com um caráter mais pedagógico do ponto de
vista de estímulo aos pesquisadores que desejam utilizá-lo.
Segundo Tim Berners-Lee, tentar utilizar o potencial da Web Semântica sem
SPARQL é o mesmo que tentar utilizar um banco de dados relacional sem usar a linguagem
SQL.
O SPARQL é um conjunto de especificações que fornecem linguagens e protocolos
para consultar e manipular o conteúdo publicado em RDF na Web. O padrão compreende as
seguintes especificações: uma linguagem de consulta para RDF; uma especificação que
3250
define uma extensão do SPARQL Query Language para executar consultas distribuídas em
diferentes terminais SPARQL; uma especificação que define a semântica de consultas
SPARQL sob regimes de vinculação, como RDF Schema, OWL, ou RIF; um protocolo que
define os meios para a transmissão de consultas SPARQL arbitrárias e solicitações de
atualização para um serviço de SPARQL; uma especificação que define um método busca e
descoberta e um vocabulário para descrever serviços SPARQL e um conjunto de testes,
para avaliação da especificação SPARQL 1.1 (SPARQL, 2013).
O protocolo SPARQL 1.1 é uma versão com muitas alterações e substanciais
evoluções em relação a primeira versão SPARQL 1.0, publicada pelo W3C como
linguagem de consulta em Janeiro de 2008. Atualmente chamado de protocolo, a versão 1.1
é uma recomendação W3C desde março de 2013.
4.1 SPARQL: Como funciona
Ao estabelecer uma metodologia de pesquisa para que se possa utilizar de forma
consistente o SPARQL, é importante dominar exatamente como acontecem as declarações
RDF, que podem ser apresentadas em forma de gráficos, tabelas, arquivos XML, arquivos
em formato Turtle, N3, entre outros tantos formatos conhecidos para RDF.
CÓDIGO 1 - Triplas RDF de uma agenda em formato Turtle
@prefix ag: <http://meusite.com.br/namespace/agenda#> .
ag:maria ag:fone
"(11) 111-1111" .
ag:maria ag:e-mail
"maria@meuemail.com.br" .
ag:jose
ag:fone
"(22) 222-2222" .
ag:jose
ag:e-mail
"jose@meuemail.com.br" .
ag:antonio ag:fone
"(33) 333-3333" .
ag:antonio ag:e-mail
"antonio@meuemail.com.br" .
ag:antonio ag:e-mail
"toninho@outroemail.com.br" .
Fonte: próprio autor
No CÓDIGO 1, são apresentadas informações de uma agenda representada pelo
formato Turtle do RDF. Considera-se neste caso o uso de um vocabulário estabelecido em
<http://meusite.com.br/namespace/agenda#>. Observa-se que neste caso poderia ter sido
utilizado o vocabulário FOAF ou algum outro vocabulário reconhecido internacionalmente,
porém preferiu-se para o exemplo um vocabulário próprio, que estaria disponível no link
apresentado. Considera-se também que as pessoas na agenda são recursos disponíveis no
mesmo endereço. A TABELA 1 apresenta o mesmo conteúdo do CÓDIGO 1, porém em
um formato diferente.
3251
TABELA 1 - Apresentação em forma de tabela dos dados do CÓDIGO 1
Recurso
maria
maria
jose
jose
antonio
antonio
antonio
Propriedade
Valor
fone
(11) 111-1111
e-mail
maria@meuemail.com.br
fone
(22) 222-2222
e-mail
jose@meuemail.com.br
fone
(33) 333-3333
e-mail
antonio@meuemail.com.br
e-mail
toninho@outroemail.com.br
Fonte: próprio autor
Apesar do Protocolo SPARQL apresentar um grande conjunto de funcionalidades,
entender como funciona o processo de consulta é talvez a parte mais importante para
dominar o funcionamento do mesmo.
Uma consulta SPARQL é composta, em ordem, por:
Declarações de prefixos, para abreviar URIs
Definição do conjunto de dados, informando quais grafo(s) RDF estão sendo
consultados
A cláusula de resultado, identificando que informação deve ser retornada a partir da
consulta
O padrão de consulta, especificando o que consultar dentro do conjunto de dados
Modificadores de consulta, limites, ordenação, e outros que podem modificar o
resultado final
CÓDIGO 2 - Estrutura padrão de uma consulta SPARQL
# declarações de prefixo
PREFIX foo: <http://example.com/resources/>
...
# definição de conjunto de dados
FROM ...
# cláusula de resultado
SELECT ...
# padrão de consulta
WHERE {
...
}
# modificadores de consulta
ORDER BY .
Fonte: SPARQL (2013).
3252
No CÓDIGO 2 a cláusula “FROM” indica o conjunto de dados a ser pesquisado,
que pode ser representado por um conjunto de arquivos ou de datasets publicados na
internet através do Linked Data. A clausula
’ “ORDER BY”, como na linguagem SQL, serve
como modificador de apresentação resultado, podendo alterar a classificação dos dados
resultantes da consulta.
Ao observar o CÓDIGO 2 o motor principal de uma consulta SPARQL é realizado
através da estrutura fundamentada pelas cláusulas “SELECT” e “WHERE”. Conforme pode
ser observado na FIGURA 1, a cláusula “SELECT” define quais dados serão apresentados
’
no resultado final da consulta, já a cláusula “WHERE” indica os dados que serão retirados
’
do grafo RDF e trabalhados de forma a ser construído o conjunto de dados de resposta a
consulta SPARQL.
’
”
“
FIGURA 1 – Cláusulas WHERE e SELECT em uma consulta SPARQL
Figure 1-1. WHERE specifies data to pull out; SELECT picks which data to display
Fonte: DUCHARME (2011, p. 4)
A submissão de uma consulta SPARQL a um conjunto de dados RDF apresenta
resultados em forma de tabelas em grande parte das vezes.
Os exemplos a seguir foram aplicados sobre o conjunto de dados nomeados aqui
como CÓDIGO 1 (nosso conjunto de dados).
O CÓDIGO 3 trata de uma simples consulta, na busca por identificar o e-mail do
“José”.
CÓDIGO 3 - Consulta SPARQL
PREFIX ag: <http://meusite.com.br/namespace/agenda#>
SELECT ?email_do_ze
WHERE
{ ag:jose
ag:e-mail
?email_do_ze . }
Fonte: próprio autor
3253
Em uma consulta, toda vez que for utilizado o símbolo de interrogação antes de uma
palavra ela deve ser entendida como uma variável, ou seja, valor a ser recuperado pela
consulta. Neste caso após a cláusula “SELECT” encontramos a variável “?email_do_ze”,
que deverá ser o único valor de retorno apresentado. A cláusula “WHERE” mostra três
elementos, entre eles a variável “?email_do_ze” que é o valor a ser recuperado no grafo
RDF.
É importante esclarecer o funcionamento da cláusula “WHERE”, visto que ela é a
responsável por selecionar o conjunto de dados a ser buscado em um dataset ou em um
arquivo de declarações RDF.
A cláusula “WHERE” é sempre construída por grupos de 3 elementos, que
representam as informações de uma declaração RDF. Em publicações da área sobre
SPARQL, encontram-se muitos exemplos da cláusula “WHERE ?s ?p ?o”, que representa
sujeito (recurso), predicado ou propriedade e objeto (valor).
No CÓDIGO 3, a cláusula “WHERE” apresenta os 3 elementos (recurso,
propriedade e valor), porém 2 deles são conhecidos dentro do conjunto de dados a ser
buscado, ou seja o único elemento apresentado como variável é o “?email_do_ze”. No caso
do CÓDIGO 3 entende-se que a consulta será submetida ao conjunto de dados do CÓDIGO
1, sendo que os dados a serem retornados ou recortados deverão obedecer a cláusula
“WHERE” da seguinte forma: “retorne toda declaração RDF encontrada, que tenha como
recurso - ag:jose -, tenha como propriedade - ag:e-mail - e tenha qualquer valor (por isso a
variável) no elemento que representa o valor”.
Nesse caso a consulta teria como resposta o resultado apresentado na FIGURA 2,
uma linha apenas com a informação do e-mail do José.
FIGURA 2 – Resultado da consulta SPARQL
Fonte: próprio autor
3254
Ainda sobre a cláusula “WHERE” e sobre o CÓDIGO 3, alterar o primeiro elemento
de “ag:jose” para uma variável (que poderia ser representada por qualquer palavra
antecedida por ?) mudaria o contexto do recorte no conjunto total de dados. Neste caso o
conjunto de dados a ser recuperado deveria ter o seguinte contexto: “retorne toda declaração
RDF encontrada, que tenha como propriedade - ag:e-mail -, independente do recurso ou do
valor apresentado”. Neste caso a consulta buscaria por um conjunto de dados mais
abrangente, porque deixa de ter um valor definido para o recurso.
Esta mudança na cláusula “WHERE” representa um possível conjunto maior de
dados como resultado, dessa forma a informação do recurso também pode ser representada
na cláusula “SELECT”, melhorando a informação de apresentação de resultado.
O CÓDIGO 4 e a FIGURA 3 apresentam essa nova situação, descrita nos parágrafos
anteriores.
CÓDIGO 4 – Consulta SPARQL
PREFIX ag: <http://meusite.com.br/namespace/agenda#>
SELECT ?pessoa ?email
WHERE
{ ?pessoa
ag:e-mail
?email . }
Fonte: próprio autor
FIGURA 3 – Resultado da consulta SPARQL
Fonte: próprio autor.
Nota-se que no CÓDIGO 4 fora alterada a variável antes utilizada, “?email_do_ze”
para “?email”, visto que a nova consulta apresenta todo o conjunto de declarações que
tenham a propriedade e-mail, independente do recurso.
Entender o conjunto de variações possíveis na clausula WHERE é um fator de
extrema importância no desenvolvimento das consultas escritas em SPARQL.
Ainda sobre o conjunto de dados apresentados no CÓDIGO 1, poderia propor várias
outras alternativas na cláusula WHERE, de forma a recortar da base de dados um conjunto
de dados diferentes. É possível pensar em buscar todos os dados de uma única pessoa, neste
3255
caso deveriam ser utilizadas variáveis nos elementos que definem propriedade e valor,
deixando o recurso com um valor definido. Poderia-se pensar também em buscar o telefone
ao invés do e-mail, neste caso seria necessária a substituição da informação “ag:e-mail” por
“ag:fone”.
4.2 SPARQL: experimentando implementações
A falta de publicações na área de Ciência da Informação que relatem
implementações e uso do SPARQL pode estar associada a dificuldade em entender como
pode ser realizado o processo de experimentação do protocolo.
O caminho mais utilizado é sempre o de operar os chamados SPARQL EndPoints,
disponíveis na grande maioria dos datasets publicados na Internet. O DBPEDIA30, o
GEODATA31, entre outros vários datasets disponibilizam seus “pontos de acesso”. Nesse
caso é possível consultar suas bases de dados em formato RDF e também cruzar dados com
outras bases de dados, entretanto há de se utilizar sempre os dados públicos
disponibilizados.
Um dos primeiros passos dessa pesquisa foi justamente implementar a estrutura
funcional do SPARQL no próprio laboratório ou mais precisamente no equipamento de uso
diário.
Pensando sempre em ambientes opensource e em soluções livres, característica de
pesquisa deste pesquisador, o uso do Apache Jena 32 é o mais adequado para iniciar os
estudos sobre aplicações e implementações de Web Semântica e do protocolo SPARQL. O
Apache Jena é um framework de código aberto para construção de Web Semântica e
aplicações Linked Data. (APACHE, 2014).
O Apache Jena é constituído de um conjunto de aplicações com destaque para
algumas delas: suporte a elaboração de projetos usando arquivos em formato RDF;
implementação de banco de dados persistente do tipo triplestore (bando de dados específico
para formato RDF); ambientes de consulta SPARQL; mecanismos de inferência e suporte a
ontologias, entre outras implementações diversas.
Na FIGURA 4 é possível visualizar a estrutura funcional do Apache Jena e inclusive
relacionar os recursos ao Bolo de Noiva de Berners-Lee criando associações para constituir
30
31
32
http://dbpedia.org/sparql
http://linkedgeodata.org/sparql
https://jena.apache.org/
3256
implementações de Web Semântica. Na área de downloads do Apacha Jena, é fácil
encontrar, baixar e posteriormente instalar a ferramenta, que é multiplataforma.
Após a instalação do Jena ele fica disponível para uso na área de terminal (prompt
de acesso) nos mais diferentes sistemas operacionais Linux, Windows ou MacOS, operando
em processo parecido com o compilador Java.
Os CODIGOS e FIGURAS (resultados) que apresentaram implementações neste
texto foram todos testados utilizando-se o Apache Jena.
FIGURA 4 – Estrutura Apache Jena
Fonte: APACHE (2014).
Se em um primeiro momento construir estruturas semânticas e utilizar o SPARQL in
loco favorece e acelera o desenvolvimento de pesquisas relacionadas a Web Semântica,
acessar e conhecer os dados disponibilizados em grandes datasets é o passo seguinte,
porque permite vislumbrar não apenas o acesso a um determinado dataset, mas também o
cruzamento de dados entre vários deles.
Os datasets disponíveis, em sua maioria, oferecem acesso via SPARQL EndPoint,
que são interfaces online que permitem a realização de consultas diretamente por um
endereço na web. A implementação dessa ferramenta dar-se-á pelo uso de bancos de dados
do tipo triplestore.
Bancos de dados do tipo triplestore são diferentes dos bancos de dados relacionais,
visto que permitem armazenar de forma nativa as declarações RDF e tem como
característica permitir o acesso via protocolo SPARQL. Há uma lista imensa de ferramentas
que implementam bancos de dados triplestore, entre eles o Apache Jena, já citado.
3257
FIGURA 5 – SPARQL EndPoint – DBPedia EndPoint33
Fonte: DBPEDIA (2014)
Dentre os principais datasets, a ferramenta mais utilizada para implementar o banco
de dados do tipo triplestore é o Virtuoso Open-Source Edition34, que apesar de estar sob o
domínio de uma empresa privada é uma plafatorma opensource.
A interface do DBpedia, apresentada na FIGURA 5, possibilita o acesso aos dados
disponibilizados no dataset. Para construir consultas é necessário conhecer a estrutura de
dados disponibilizado pelo DBpedia, assim também será para utilizar outros datasets.
Através da interface do DBpedia é possível recuperar um conjunto diverso de
informações. Um aficionado por eventos esportivos como os Jogos Olímpicos poderia ter
interesse em saber todos os medalhista de ouro da história ou de uma determinada
modalidade olímpica; um fã de Ayrton Senna poderia ter interesse em saber as vitórias do
mesmo em dias de chuva; um cinéfilo poderia se interessar por todos os filmes estrelados
por Morgan Freeman ou então por filmes estrelados e dirigidos por Clint Eastwood.
Buscas por países que não fazem fronteira com o oceano, ou que tem períodos
maiores que 18 horas de sol por dia e até musicas que duram mais de 60 minutos também
são informações disponíveis no DBpedia, passíveis de serem consultadas.
33
34
http://dbpedia.org/sparql (Usando Virtuoso OpenLink)
http://virtuoso.openlinksw.com/dataspace/doc/dav/wiki/Main/
3258
O objetivo deste trabalho não é discutir o uso das informações do DBpedia,
aparentemente informal e com relevância específica para alguns contextos. Também não é
proposta desta pesquisa analisar outros datasets disponíveis como de localização
geográfica, dados de aeroportos, informações sobre publicações científicas que poderiam
gerar muitos dados importantes para tomada de decisão do cotidiano das pessoas.
Apresentar-se-á apenas a forma de se utilizar um dataset tendo como modelo o DBpedia.
Para se recuperar informações de um determinado dataset é importante que se
conheça a estrutura semântica utilizada por ele, os vocabulários associados e todo o
contexto de que envolve a construção da informação que está relacionada. Utilizando o
contexto já citado, é possível verificar a pagina oferecida no DBPedia sobre o ator Morgan
Freeman na FIGURA 6, ela apresenta as propriedades e valores associados ao recurso que
identifica unicamente a pagina do ator.
FIGURA 6 – Recurso Morgan Freeman (DBpedia)
Fonte: DBPEDIA (2014)
No caso especifico desse recurso, é possível notar as propriedades e os valores que
estão diretamente associados a ele. É possível notar propriedades oriundas do vocabulário
DC (Dublin Core) além dos vocabulários próprios da DBpedia (dbpedia-owl). É possível
também identificar que alguns valores associados as propriedades são outros recursos, o que
efetiva a concepção de grafo ou de rede das declarações RDF.
3259
O CÓDIGO 5 apresenta a consulta SPARQL constituída para recuperar os filmes
estrelados por Morgan Freeman disponíveis no DBpedia.
CÓDIGO 5 – Consulta SPARQL em DBpedia EndPoint
SELECT ?filme
WHERE {
?filme dbpedia-owl:starring dbpedia:Morgan_Freeman
}
Fonte: próprio autor
A consulta apresentada no CODIGO 5 foi baseada em um estudo do próprio recurso
visto na FIGURA 6. A cláusula “WHERE” identifica todos os recursos que tiveram como
propriedade
o
termo
“dbpedia-owl:starring”
e
como
valor
o
termo
“dbpedia:Morgan_Freeman”. Dessa forma o processador SPARQL deverá recortar de todo
o conjunto de bilhões de declarações RDF do DBpedia apenas os que se enquadram nos
quesitos descritos.
O CÓDIGO 6, agrega na cláusula “WHERE” um recorte sobre os filmes produzidos
pelo mesmo Morgan Freeman. Neste caso é possível recuperar os filmes que foram
estrelados e produzidos pelo mesmo.
Verifica-se neste caso que o “ponto” que liga as duas linhas que estão na cláusula
“WHERE” serve para criar uma relação booleana do tipo AND, considerando uma
intersecção entres o recorte produzido pelas duas linhas existentes na cláusula “WHERE”.
CÓDIGO 6 - Consulta SPARQL em DBpedia EndPoint
SELECT ?filme
WHERE {
?filme dbpedia-owl:starring dbpedia:Morgan_Freeman .
?filme dbpedia-owl:producer dbpedia:Morgan_Freeman
}
Fonte: próprio autor
Assim como fora apresentado o uso do DBpedia, qualquer outro dataset pode ser
explorado e consumido utilizando-se SPARQL, desde que se conheça a estrutura lógica em
que as informações estão disponíveis.
5 CONSIDERAÇÕES FINAIS
A Web Semântica é um fato, porém o uso dela passa inicialmente pela construção
dos ambientes e posteriormente pela recuperação das informações. A área tem discutido de
forma exaustiva o uso do padrão RDF e a construção de ontologias sólidas, porém ainda
3260
existe uma necessidade efetiva de discussão sobre a construção de estruturas claras e
funcionais de recuperação da informação em ambientes semânticos.
O Linked Data tornou-se a principal referencia concreta de uso da Web Semântica, e
sua proposta de dados ligados tem motivado as mais diversas organizações, instituições e
setores a disponibilizar dados ligados em formato aberto.
O protocolo SPARQL apresentado e demonstrado de forma introdutória neste texto é
a base para a recuperação da informação em ambientes semânticos, entretanto a
maximização de seu uso efetivo está ligado diretamente ao domínio da sua grande
diversidade de funcionalidades. Dentre as funcionalidades não apresentadas neste texto
podemos citar ainda a atualização de dados e o uso de inferências.
Nos últimos anos a utilização do protocolo SPARQL já é possível devido a
existência de um grande número de ferramentas que implementam não apenas
especificações SPARQL mas também ambientes propícios de acesso e experimentação. O
acesso a estas ferramentas, em grande parte opensource, facilita o desenvolvimento de
pesquisas sobre recuperação semântica da informação. O uso do Apache Jena é um ótimo
caminho para iniciar as atividades práticas com Web Semantica e SPARQL.
A disponibilidade de SPARQL Endpoints em grandes e conhecidos datasets é
também um ótimo caminho para evoluir com as pesquisas sobre como o utilizar o protocolo
SPARQL no construção de modelos de recuperação de dados ligados
REFERÊNCIAS
AGROVOC. AGROVOC Linked Open Data. 2014. Disponível em
<http://aims.fao.org/standards/agrovoc/linked-open-data>. Acesso em: 10 jun. 2014.
APACHE. Apache Jena. 2014. Disponível em < https://jena.apache.org/>. Acesso em 20
jan. 2014.
BERNERS-LEE T.; LASSILA, O.; HENDLER, J. The semantic web. Scientific American,
New York, v. 5, May 2001.
BERNERS-LEE, T. Linked Data Principles. 2006. Disponível em
<http://www.w3.org/DesignIssues/LinkedData.html> Acesso em : 10 abr. 2014.
DBPEDIA TEAM. DBPedia. 2014. Disponível em
<http://thedatahub.org/dataset/dbpedia>. Acesso em 02 jun. 2014.
DUCHARME, B. Learning SPARQL. Sebastopol: O'Reilly, 2011.
GEONAMES. Geonames Ontology. 2013. Disponível em :
<http://www.geonames.org/ontology/documentation.html>. Acesso em: 10 jun. 2014.
3261
GUARINO, N. Formal ontology and information systems. In: INTERNATIONAL
CONFERENCE ON FORMAL ONTOLOGY IN INFORMATION SYSTEMS - FOIS'98,
1998, Trento. Proceedings… Amsterdam: IOS Press, 1998. p. 3-15.
HEATH, T.; BIZER, C. Linked Data: Evolving the Web into a Global Data Space. Morgan
& Claypool, 20111.
JACOB, E. K. Ontologies and the semantic web. Bulletin for the American Society for
Information Science and Technology, v. 29, n. 4, p. 19-22, Abr./Mayo 2003.
LASSILA, O. Resource Description Framework (RDF) model and syntax specification
1.0. 1999. Disponível em: <http://www.w3c.org/TR/ REC-rdf-syntax>. Acesso em: 2 fev.
2014.
SANTAREM SEGUNDO, J. E. Representação Iterativa: um modelo para repositórios
digitais. 2010. 224 f. Tese (Doutorado em Ciência da Informação) – Faculdade de Filosofia
e Ciências, Universidade Estadual Paulista, Marília. 2010.
SPARQL Sparql 1.1 Overview. W3C, 2013. Disponível em
<http://www.w3.org/TR/2013/REC-sparql11-overview-20130321/> Acesso em: 13 nov.
2013.
W3C. Semantic Web. W3C, 2010. Disponível em:
<http://www.w3.org/standards/semanticweb/>. Acesso em: 10 de Abr. 2014.
3262
DESIGN SCIENCE: FILOSOFIA DA PESQUISA EM
CIÊNCIA DA INFORMAÇÃO E TECNOLOGIA
DESIGN SCIENCE: PHILOSOPHY OF RESEARCH IN
INFORMATION SCIENCE AND TECHNOLOGY
Marcello Peixoto Bax
Resumo: A Design Science Research (ou DSR) é uma meta-teoria que investiga a geração
de conhecimento no processo de concepção de artefatos, i.e., sobre como métodos de design
podem constituir pesquisa de caráter científico. O objetivo do artigo é apresentar uma
análise do paradigma DSR, como quadro teórico-metodológico de fundamentação científica
das pesquisas em tecnologia e gestão da informação e do conhecimento, importante campo
da ciência da informação. Para analisar a DSR e sintetizar os resultados, o método usado foi
o de rever na literatura pertinente os aspectos da DSR considerados mais relevantes para o
campo. Foram analisados os artigos mais citados nos últimos 50 anos. Tem-se como
resultado da análise, por um lado a constatação surpreendente do completo
desconhecimento da DSR na literatura de ciência da informação em geral, tanto nacional
quanto internacional e mais especificamente no campo citado. Conclui-se que, apesar de
desconhecida na ciência da informação, a DSR deve ser vista como uma das mais
apropriadas metodologias para orientar a condução de pesquisas científicas em tecnologia e
gestão da informação e do conhecimento, em uma abordagem que alia a relevância da
aplicação prática com o rigor científico.
Palavras-chave: ciência da informação; ciência de projeto; metodologia de pesquisa;
filosofia da ciência; epistemologia.
Abstract: The Design Science Research (DSR) is a meta-theory that investigates the
knowledge generation process while designing artifacts, i.e., how design methods can
constitute research of scientific nature. The objective of this paper is to present an analysis
of DSR paradigm as theoretical and methodological framework for doing scientific research
in information and technology, major field of information science. To analyze the DSR and
summarize the results, the method used was to make a literature review of the DSR’s
aspects considered most relevant to the field. The most cited papers over the last 50 years
were analyzed. As a result we found a complete ignorance of DSR in the information
science literature in general, both nationally and internationally and more specifically in
that field. We conclude that, although unknown in information science, DSR should be seen
as one of the most appropriate methodologies to guide the scientific research in
information, technology and management, an approach that combines the relevance of
practical application with scientific rigor.
Keywords: information science; design science research; research methodology;
philosophy of science; epistemology.
1 INTRODUÇÃO
The inadequate articulation of its central conceptions as an orientation
strategy35 is also the crucial weakness of the information resources
management movement […]. The promise of the movement is that it is
interested in both individual information use and its organizational an
35
Discurso meta-teórico sobre a natureza e escopo de um campo de pesquisa que sugere
orientações e estratégias para se conhecer os fenômenos que ocorrem no campo.
3263
social context. […]. That it has not articulated itself as an orientation
strategy is due to the fact that it has developed an ideology but no basic
concepts for the field (Pertti Vakkari, 1994, p.50).
No trecho acima Vakkari (1994) declarava, em 1994, que dos três paradigmas da
ciência da informação – social, cognitivo e gerencial – este último, o gerencial36 (e
tecnológico), à época então conhecido como gerenciamento de recursos informacionais (ou
GRI), constituía movimento promissor para a ciência da informação, mas que por não
exercitar o auto-escrutínio de seus métodos, acabou se revelando muito mais uma
“ideologia”, do que uma estratégia de orientação epistemológica (i.e., de pesquisa rigorosa).
No mesmo texto, Vakkari classifica a ciência da informação como uma “design science”,
cuja missão é prover orientações (guidelines) para incrementar o acesso à informação.
The purpose to which information science is pledged is to facilitate access
to desired information. […] It is design science, whose mission it is to
provide, with help from research, the guidelines through which access to
information can be enhanced (Pertti Vakkari, 1994, p.47).
O autor concorda com Vakkari que a ciência da informação, como uma ciência
social aplicada é, em grande parte, uma “ciência de projeto” ou design science; logo, a
tarefa de explicitar a ontologia, epistemologia e metodologia de uma design science
contribuirá muito para o amadurecimento desta ciência. Por falta de espaço, entretanto,
nosso objetivo aqui ainda não será este37. Uma constatação surpreendente do presente
artigo é que, embora já em 1994, Vakkari classificasse a ciência da informação como uma
design science, a natureza de uma tal ciência de projeto38 ainda persiste por demais
desconhecida da comunidade dos pesquisadores da ciência da informação. Com efeito, foi
no campo da computação e dos sistemas de informação que a ciência do design foi primeiro
proposta. Uma “ciência do artificial” como a batiza Herbert Simon (1996), em 1968.
Pensada como uma ciência do desenvolvimento de artefatos, a design science foi
inicialmente proposta por Simon, sob o olhar da filosofia da ciência, como um contraponto
às ciências naturais e à hermenêutica. As disciplinas consideradas “tecnológicas” e a
pesquisa relacionada, centram-se no desenvolvimento, compreensão e uso da TI para
atender às necessidades práticas de indivíduos e organizações. Artefatos e em particular
software, são a base operacional da pesquisa nesta área de investigação.
36
37
38
Em geral esse paradigma é representado, na ciência da informação, pela linha de pesquisa
gestão da informação e do conhecimento (GIC).
Realizar uma reflexão mais aprofundada sobre os princípios filosóficos da design science
research é trabalho futuro, a ser publicado em outro artigo.
Alguns textos em português traduzem design science como ciência de projeto. Nós
preservaremos, neste artigo, o termo na sua grafia original em língua inglesa.
3264
Segundo Gregg (2001), embora a importância do desenvolvimento de software seja
bem aceita, o que constitui pesquisa de qualidade na área ainda não é tão estabelecido.
Talvez porque a mera aplicação de um método consolidado de desenvolvimento de
software, por si, não constitua necessariamente uma atividade de pesquisa. Também não é
trivial distinguir entre os esforços de desenvolvimento, aqueles que contribuem para fazer
avançar os limites do conhecimento científico na área, daqueles que são simples
implementações pontuais que solucionam problemas conhecidos reusando conhecimentos
já consolidados na literatura. Essa dificuldade gera a visão comum e recorrente de que um
projeto de concepção de um sistema de informação ou de outro artefato tecnológico
qualquer dificilmente poderá caracterizar pesquisa científica. O argumento é de que tais
projetos não ensejam o desenvolvimento de conhecimento novo, de caráter rigoroso.
A questão é análoga à discussão sobre como justificar o caráter científico das
pesquisas realizadas no âmbito do paradigma gerencial e tecnológico da ciência da
informação. E mais especificamente das pesquisas realizadas no âmbito do GT8 do
Enancib39, visto a preponderância desse tipo de pesquisa no GT. Contudo, a preocupação
com o uso de métodos adequados de pesquisa na ciência da informação, mais
especificamente em sua subárea de sistemas e informação, gestão e tecnologia (GT8,
Enancib) é ausente na literatura nacional e o paradigma discutido neste artigo, a Design
Science Research (DSR) é desconhecido da ciência da informação, como concluiu o esforço
de pesquisa aqui relatado. Ora, a DSR é exatamente o tipo de meta-teoria que auxilia o
pesquisador a criar conhecimento teórico durante os processos mesmos de concepção de
artefatos, justificando como tais processo podem constituir pesquisa de caráter científico.
Outra forma de colocar a questão é quando se busca diferenciar, no contexto de
projetos de pesquisa do GT8, entre um projeto de pesquisa, desenvolvimento e inovação
(PD&I), de um projeto de consultoria e desenvolvimento. Trata-se de um difícil problema
que diz respeito ao nível de complexidade do tema que se tem em mãos40. A distinção é
crucial entretanto, pois projetos de PD&I necessitam do envolvimento de pesquisadores ou
instituição de pesquisa. Para esses últimos, em geral, não existem nem “boas” nem
“melhores práticas” estabelecidas no mercado. Enquanto projetos rotineiros de
desenvolvimento podem ser especificados e contratados de fornecedores de TI no mercado.
39
40
Grupo de Trabalho Informação e Tecnologia (GT8) do Encontro Nacional de Pesquisa em
Ciência da Informação no Brasil (Enancib).
A esse propósito vale a pena consultar o arcabouço Cynefin (Kurtz e Snowden, 2003). O
Cynefin é derivado de pesquisa em complexidade organizacional e troca de conhecimento,
tomada de decisão, estratégia e formulação de políticas.
3265
Neste último caso, “melhores práticas”, normalmente, já se encontram consolidadas. A
dificuldade é que, obviamente, existe uma larga zona cinzenta entre esses dois extremos.
Contudo, vale notar que o objetivo aqui não é o de argumentar que a atividade,
desde que rigorosa, de construção de um sistema de informação (artefato 41) possa ser
considerada, em muitos casos, uma atividade de pesquisa. Ou seja, uma atividade que
envolve reflexão tanto sobre o processo de construção em si (engenharia de software),
quanto sobre como tal processo, ao produzir o artefato, resulta ou gera conhecimento
científico sobre como melhorar a eficácia e eficiência dos processos da organização. Tal é a
essência do paradigma da DSR e isso já foi feito por inúmeros trabalhos, que definiram
arcabouços42 ou quadros teórico-metodológicos, dos quais citamos: Simon (1966),
Nunamaker (1994), Gregg et al. (2001), Vashinav (2001), Hevner et al. (2004) e Wieringa
(2009). Embora não haja consenso sobre os fundamentos filosóficos da DSR, os autores
citados a destacam como sendo singular e única, diferenciando-a e contrastando-a com os
outros principais paradigmas positivista e hermenêutico, mas também concordando que ela
compartilha dos fundamentos de uma ciência natural e esteja próxima do paradigma
hermenêutico, interpretativo.
O objetivo deste artigo é destacar, na literatura, os pontos de atenção mais
importantes da DSR para a ciência da informação, bem como comentar sobre a evolução do
paradigma na visão de alguns de seus principais autores. Com isso espera-se apresentar a
DSR como alternativa metodológica para o paradigma gerencial e tecnológico da ciência da
informação de que dá falta Vakkari (1994), na citação no início desta introdução. A
pretensão é colaborar para que sejam realizadas pesquisas de melhor qualidade na área,
sobretudo aquelas no âmbito do GT8, do Enancib.
No intuito de fundamentar a analise do problema sugerido (e explicitado no objetivo
declarado acima) e de sintetizar elementos de resposta, o método usado foi realizar uma
revisão da literatura pertinente que analisa os aspectos epistêmicos mais relevantes de uma
design science capazes de melhor fundamentar o conhecimento científico no campo
gerencial e tecnológico da ciência da informação. Foram analisados os artigos mais citados,
dos anos de 1960 até hoje, em periódicos internacionais, sobre o tema "design science" e
“desing science research”. As reflexões advindas desse trabalho fundamentarão no futuro a
síntese de um quadro teórico-metodológico de cunho pragmático que possa orientar a
realização de pesquisas de melhor qualidade no campo.
41
42
Artefato: é aqui definido como um objeto cuja construção segue métodos científico.
Ou Research Frameworks.
3266
Contrariamente ao positivismo comum que pleiteia a separação clara e precisa entre
pesquisa de cunho científico de um lado, e de cunho tecnológico de outro 43, e corroborando
Wieringa (2009), defende-se aqui que na pesquisa social aplicada há, em geral, uma
nidificação mútua e sempre recorrente de problemas práticos e problemas teóricos (questões
de conhecimento, no vocabulário de Wieringa). Assim, entende-se que a base que
determina o nível de qualidade científica da pesquisa no campo do GT8 acaba sendo
sobretudo de cunho metodológico, i.e., quando esses dois tipos de problemas são
confundidos, o resultado comprometerá, quase sempre, a qualidade da pesquisa,
justificando aquela estreita visão positivista comum. Com efeito, quando a metodologia
falha em orientar o pesquisador, pode-se esperar por duas situações indesejáveis para uma
ciência social aplicada: ou se produz o artefato e não se produz conhecimento, ou se produz
conhecimento sem se produzir o artefato44. Ou seja, perde-se no rigor científico ou na
relevância da pesquisa; um resultado indesejado, mesmo sob a égide do compromisso
apodítico entre rigor e relevância.
Finalmente, para concluir o artigo, ilustra-se através de um exemplo prático de
projeto, como o quadro teórico e metodológico da DSR pode contribuir para justificar a
diferença entre projetos de desenvolvimento e projetos de PD&I, como foi comentado
acima. Como em qualquer pesquisa científica, pressupostos filosóficos são assumidos,
mesmo que de forma inconsciente, pelo pesquisador. Considera-se que explicitar tais
pressupostos, à luz da DSR, ajudará o pesquisador a se orientar na ciência de projeto (ou
design science), do ponto de vista metodológico.
2 INTRODUÇÃO À DESIGN SCIENCE E À DESIGN SCIENCE RESEARCH
O paradigma DSR foi amplamente discutido nos últimos anos e agora ganha terreno
como um quadro teórico ou uma estratégia de pesquisa capaz de orientar, tanto a construção
do conhecimento, quanto aprimorar as práticas em sistemas de informação e de várias
disciplinas relacionadas ao campo gerencial e tecnológico da ciência da informação. No
paradigma DSR, o conhecimento e a compreensão de um domínio do problema e sua
solução são alcançados graças à construção e aplicação de um artefato projetado. Segundo
Hevner et al. (2004), numa abordagem pragmática, a DSR não anseia alcançar verdades
últimas, grandes teorias ou leis gerais, mas procura identificar e compreender os problemas
43
44
TAKAHASHI (2009) mostra que a diferença entre esses dois tipos de conhecimento está longe
de ser trivial.
Resultado de uma relação analítica pouco dialética entre relevância x rigor, incapaz de sínteses
inovadoras.
3267
do mundo real e propor soluções apropriadas, úteis, fazendo avançar o conhecimento
teórico da área.
A DSR envolve construir, investigar, validar e avaliar artefatos tais como:
construtos, arcabouços, modelos, métodos e instâncias de sistema de informações, a fim de
resolver novos problemas práticos. Além disso, o estudo de métodos, comportamentos e
melhores práticas relacionadas com a análise do problema e com o processo de
desenvolvimento de artefato são abrangidos. Debates em curso sobre a natureza e o alcance
dos arcabouços de pesquisa dominantes em DSR, no entanto, mostram que o paradigma
ainda está emergindo. Seu núcleo, seus limites e sua interação com outras abordagens de
pesquisa ainda estão sendo revelados e definidos (VAISHNAVI, 2009). Trata-se então de
um momento propício para os pesquisadores da ciência da informação estudarem,
compreenderem e aplicarem tal paradigma em suas pesquisas.
2.1 Histórico da DSR Como Pesquisa em Sistemas de Informação
A ciência de projeto (design science) aparece pela primeira vez em Fuller (1965)
que a definiu como uma forma sistemática de projetar ou conceber coisas. O conceito foi
retomado por Gregory (1966), que pontua a distinção entre a concepção pelo método
científico (design science research) e o método de projeto ou concepção em si (design,
simplesmente). Para Gregory, a concepção ou projeto (design) não era uma ciência, pois
uma ciência da concepção deve ir mais fundo e referir-se à uma visão científica do processo
de criação. Em seguida Simon (1996) no ano de 1968 populariza esses termos em seu
argumento para o estudo científico do artificial (em oposição ao natural). De lá até hoje os
dois termos têm sido confundidos ao ponto onde a DS passou a ter dois sentidos (design e
design science), com o significado de estudo científico da concepção agora predominante.
O tema foi mais recentemente rebatizado pela expressão “design thinking”, cf. Visser
(2006). Na verdade, nota-se que é um mesmo conjunto de ideias, centrado na utilização de
ferramental tecnológico contemporâneo, que está de algumas das mais conhecidas práticas
de gestão moderna, tais como o design thinking, o desenvolvimento ágil, o customer
development e o lean startup.
Vale notar que desde o início dos anos 1960 cientistas da computação vêm fazendo
pesquisas no estilo DSR sem, entretanto, nomeá-las assim. Ou seja, realizando o ciclo
racional implicitamente (planejar > conceber > avaliar), foram desenvolvidas novas
linguagens de programação, compiladores, algoritmos, modelos e estruturas de dados e
arquivos, sistemas de gestão de banco de dados, e assim por diante. Um observador de fora
da computação pode se fazer a ideia de que não se discute internamente a epistemologia da
3268
área; de que não se faz o “auto-escrutínio”, nos termos de Vakkari. E portanto não se faz
ciência de primeira qualidade, por ausência de discussão dos fundamentos filosóficos.
Contudo, a melhor explicação para o fato é exatamente a presença deste racional implícito,
que advém de uma notável unidade paradigmática do campo da computação. Já no campo
mais recente dos sistemas de informação, grande parte da pesquisa inicial foi focada em
abordagens de desenvolvimento de sistemas e métodos, que também são representantes da
pesquisa do tipo DSR.
Sistemas de Informação (SI) é um campo relativamente novo de estudo que
investiga tecnologias de informação e comunicação em contextos organizacionais.
Originalmente um ramo da ciência de gestão, tornou-se um campo independente já no final
de 1960. Autores divergem quanto à evolução histórica do uso da DSR como pesquisa em
SI. Para alguns só recentemente é que a DSR torna-se uma linha distinta de investigação na
área. Para outros as origens da pesquisa na área seguiram a DSR, pendendo-a de vista
contudo nos anos 1980 e 90 e somente agora retornando como uma abordagem
metodológica válida para suas pesquisas. Kuechler e Vaishnavi (2008) detalham o
surgimento da DSR na área de SI e descrevem seu estado atual.
Segundo Livari (2007), nos últimos 30 anos a pesquisa em SI perdeu de vista sua
origem como DSR. A filosofia da pesquisa dominante passou a ser a de desenvolver
pesquisas cumulativas, estritamente teóricas capazes de fazer prescrições. Afirma o autor
que essa estratégia de pesquisa "teoria-com-implicações-práticas" não conseguiu produzir
resultados de interesse prático, perdendo relevância. O que impulsionou, no início do século
XXI, uma retomada dos métodos práticos de pesquisa, como a DSR (LIVARI, 2007, p.40).
Wieringa (2009) e vários outros autores seminais da área relatam que as primeiras
ideias que, mais tarde inspirariam a DSR como é hoje conhecida, teriam iniciado com o
artigo de Simon (1996). A partir do qual March e Smith (1995, p.253) introduzem a DSR
como tentativas de criar soluções que servem aos propósitos humanos, de resolver
problemas.
Mais tarde, vários pioneiros, dentre eles Hevner et al. (2004), forneceram um quadro
teórico-metodológico para a DSR em que (1) as necessidades de negócios motivam o
desenvolvimento de artefatos (validados) que atendam a essas necessidades, e em que (2) o
desenvolvimento de teorias justificadas sobre esses artefatos produz conhecimento que
pode ser adicionado à base de conhecimento compartilhada. Este quadro esclarece a
interface de DSR com o seu ambiente social e com a base de conhecimento científico, e
deixa claro que a DSR e a pesquisa em ciências naturais (viés comportamental) são
3269
atividades intimamente relacionadas (behavioral science e design science); o que é um
contraponto à afirmação de Vakkari (1994), de que a influência das ciências naturais na
ciência da informação não é grande. No artigo, Vakkari (cf. Vakkari, 1994, p. 50) critica a
linha de GIC45 (na época chamada GRI 46) por falta de rigor científico. Não percebendo que
a DSR poderia ser a metodologia científica adequada para transformar as “ideologias” (na
visão daquele autor), que eram geradas pela linha, em teorias científicas efetivas.
No Brasil vale notar que em trabalho no âmbito do projeto “Gestão de Operações
em Organizações Inovadoras”, financiado pela CAPES, desenvolvido com a participação de
programas pós-graduações de várias universidades (PPGEPS/UNISINOS, PEP/COPPE
/UFRJ, PEP-PE/UFPE, AI/INPI e Poli/USP), a DSR foi vista como alternativa concreta de
método para a condução de pesquisas de cunho tecnológico (tecnologias de gestão, p.ex.),
constituindo-se em uma abordagem que, quando bem aplicada, produz rigor científico
efetivo (LACERDA, 2013).
2.2 O CICLO Regulador da DSR
Wieringa (2009) chama a atenção para o fato de que a estrutura lógica usada na
resolução de problemas consiste no tradicional ciclo regulador 47 que envolve as atividades
de (1) Investigação do problema; (2) Projeto de soluções; (3) Validação da solução; (4)
Implementação da solução e (5) Avaliação da implementação (com pequenas variações). O
ciclo regulador pode ser visto na FIG. 1, que apresenta suas etapas caracterizando cada uma
como um problema prático ou de conhecimento, ponto discutido em detalhes na Seção 4.
45
46
47
Gestão da informação e conhecimento, linha de pesquisa da ciência da informação.
Gerenciamento de recursos informacionais.
Também análogo ao conceito de PDCA (de Deming e Shewhart), que por sua vez é baseado no
método científico, tal como foi desenvolvido a partir do trabalho de Francis Bacon (Novum
Organum, 1620). O método científico pode ser escrito como "hipótese" - "experimento" "avaliação" ou planejar, fazer e verificar. Ou ainda problema > proposta > avaliação > novo
problema.
3270
FIGURA 2 – Ciclo regulador e a decomposição de um problema prático
Fonte: o autor, baseado em Wieringa (2009).
De forma a auxiliar na decomposição dos problemas e explicitar as oportunidades de
geração de conhecimento científico durante a execução do ciclo regulador, Wieringa (2009)
propõe uma classificação precisa dos problemas, distinguindo entre problemas práticos e
teóricos (que ele denomina “questões de conhecimento”). Veremos a seguir que este ciclo
regulador serve tanto para orientar a parte prática da pesquisa, i.e. resolução de problemas
práticos, quanto a parte teórica, quanto trata-se sobretudo de gerar conhecimento
respondendo a questões de conhecimento (i.e., questões teóricas).
2.2.1 Tarefas do ciclo regulador
O ciclo regulador, proposto por diversos autores com pequenas diferenças,
compiladas em Lacerda (2012), começa com uma investigação de um problema prático, ele
mesmo resultado da resolução de problemas práticos anteriores; em seguida, especifica
projetos de soluções, os valida, e implementa o projeto selecionado; cujo resultado, então,
será avaliado, o que poderá ser o início de uma nova rodada do ciclo regulador.
Wieringa (2009) cita pesquisadores de diversas áreas tais como: desenvolvimento de
produto, engenharia de sistemas, arquitetura, engenharia mecânica e até na prática
psicológica, que com algumas variações, identificam o ciclo regulador como representação
da estrutura lógica da ação racional (tanto prática quanto teórica). O ciclo regulador é a
estrutura geral de um processo racional de resolução de problemas: análise da situação atual
e das metas de mudança novas ou em curso, propor possíveis alterações para atingir essas
3271
metas, avaliar as alterações possíveis e selecionar uma, aplicar a alteração e, em seguida,
reiniciar o ciclo.
3 O QUADRO TEÓRICO DA DSR DE HEVNER
Para Hevner et al. (2004), a DSR é fundamentalmente um paradigma para a solução
de problemas. Usa-se a criação de artefatos, com bases nas leis naturais e nas teorias
comportamentais, que são aplicados, testados, modificados e estendidos por meio da
experiência, criatividade, intuição e habilidades de resolução de problemas de seus
pesquisadores. Os artefatos podem ser dos tipos: construtos (entidades e relações), modelos
(abstrações e representações), métodos (algoritmos e práticas)
e instanciações
(implementação de sistemas e protótipos), corroborando March e Smith (1995). Portanto os
artefatos podem ser desde um software, uma teoria, até descrições informais em linguagem
natural. Para os autores, artefatos auxiliam na definição de ideias, práticas, capacidades
técnicas e produtos. O conhecimento e a compreensão do problema a ser resolvido são
adquiridos durante a construção e o uso dos artefatos, quando estes são validados e
avaliados.
Para Hevner a DSR pode ser vista como uma conjunção de três ciclos reguladores
de atividades relacionadas (Hevner, 2007). O “ciclo de relevância” inicia a pesquisa com
um contexto de aplicação que não só fornece como insumo os requisitos para a pesquisa,
mas também define os critérios de aceitação para a avaliação dos resultados da
investigação. O “ciclo de rigor” fornece o conhecimento científico passado ao projeto de
pesquisa para assegurar a sua inovação. A boa condução deste ciclo depende do
pesquisador realizar uma investigação o mais completa possível na base de conhecimento
(i.e., conjunto das bases de referência da literatura científica da área), fazendo referências
aos trabalhos correlatos. O objetivo é garantir que os artefatos produzidos são contribuições
de pesquisa efetivas e não projetos de rotina, baseados na aplicação de processos já
conhecidos (pelos pesquisadores da área). Finalmente, o “ciclo central” itera entre as
atividades principais de construção e avaliação dos artefatos de design e processos da
pesquisa. Os três ciclos estão representados na FIG. 2.
3272
FIGURA 2 – Design Science Research Framework
Fonte: o autor, baseado em Hevner et al. (2004).
De acordo com Hevner et al. (2004) a design science e a ciência comportamental
são dois paradigmas relacionados que caracterizam a pesquisa em SI, e por consequência
também no campo da informação, tecnologia e gestão. A DSR tem suas raízes em
disciplinas de engenharia e como visto acima é uma jovem disciplina, enquanto a ciência
comportamental tem suas raízes nos métodos de pesquisa científica naturais e tem uma
história bem mais longa. A DSR procura criar inovações e visa a utilidade, enquanto a
ciência comportamental foca em desenvolver e justificar a teoria. Por isso elas devem
“andar juntas”.
Finalmente, vale notar que na pesquisa comportamental, a significância estatística é
estabelecida como uma medida de rigor de seus resultados - mas a relevância destes
resultados varia. Orientada para a atividade de concepção, a DSR tem como objetivo a
construção de melhores soluções, e a utilidade na prática é estabelecida como uma medida
de relevância de seus resultados - mas o rigor de sua construção e avaliação varia. Eis outra
razão para distinguir claramente problemas práticos de questões de conhecimento: garantir
o compromisso adequado entre rigor e relevância, que devem possuir todas as ciências
sociais aplicadas, como a ciência da informação.
4 O QUADRO TEÓRICO DE DSR DE WIERINGA
Até aqui já ficou claro que a ciência da concepção (Design Science) enfatiza a
conexão entre conhecimento e prática, mostrando ser possível produzir conhecimento
científico através da concepção de “coisas” úteis. Wieringa (2009) revela a existência de
3273
“questões de conhecimento” que ocorrem durante as iterações dos ciclos. “Questões de
conhecimento”, no jargão do autor, representam oportunidades de geração de conhecimento
científico. Segundo o autor, com vistas a responder a questões de conhecimento pode-se
procurar pela solução na literatura, consultar alguém que já resolveu questão similar ou
mesmo usar o próprio conhecimento advindo de experiências anteriores.
No entanto, na ausência de diretrizes mais detalhadas, os pesquisadores tendem a
identificar problemas práticos com perguntas de conhecimento, o que pode levar a
projetos de pesquisa metodologicamente fracos. Portanto, é fundamental entender que para
se resolver um problema prático, o mundo real é alterado para atender aos propósitos
humanos, mas para resolver um problema de conhecimento, deve-se adquirir conhecimento
sobre o mundo, sem necessariamente alterá-lo. Como argumenta Wieringa (2009), na DSR
esses dois tipos de problemas são mutuamente aninhados. Ressalta o autor, contudo, que
este aninhamento não deve nos cegar para o fato de que os métodos de resolução de
problemas e de justificação das soluções são diferentes em cada caso.
Wieringa (2009) estende o quadro teórico de Hevner et al. (2004) de três formas (cf.
FIG. 3). Em primeiro lugar, há uma maior elaboração (no ciclo da relevância) da
investigação problema para se obter mais precisamente as necessidades de negócios.
Segundo o autor a investigação pode ser “orientada a um problema”, a um “objetivo”, a
uma “solução” e ao “impacto de uma solução” (WIERINGA, 2009, p.3). Este aspecto não
recebeu atenção no quadro de Hevner et al. (2004), mas a investigação mais detalhada da
natureza do problema é uma tarefa importante no caminho para se alcançar uma maior
relevância da pesquisa. Em segundo lugar, a base de conhecimento no quadro de Wieringa
é estratificada em níveis de generalização das teorias. Ele as classifica, da mais específica
para a mais genérica. Organizando-as em teorias N = 1 (a mais específica), passando por
teorias orientadas a classes de problemas (nível intermediário) e chegando em teorias
nomotéticas, que são as mais gerais, dotadas de normas precisas que regulam os fenômenos.
As DSs ocupam sobretudo o nível intermediário.
3274
FIGURA 3 – Quadro teórico-metodológico da DSR de Roel Wieringa
Fonte: o autor, baseado em Wieringa (2009).
Em terceiro lugar, no quadro teórico de Wieringa, a o ciclo regulador central da
DSR é decomposto em uma estrutura aninhada de problemas práticos e questões de
conhecimento. Questões de conhecimento podem ser respondidas pela aplicação do
conhecimento a partir da base de conhecimento ou fazendo pesquisa original, usando a
análise conceitual ou métodos empíricos tais como experimentos, estudos de caso, pesquisa
de campo ou de modelagem e simulação. Os problemas práticos são resolvidos casando
problemas e soluções durante os ciclos incrementais, em espiral.
Vê-se que as diretrizes básicas da DSR, tal como estabelecidas por Hevner et al.
(2004), são suportados, comentadas e ajustadas pelo quadro teórico de Wieringa (2009). As
diretivas da DSR são: (1) O projeto de pesquisa produz artefatos; (2) problemas devem ser
potencialmente relevantes e são dependente do contexto (organizacional); (3) propostas de
solução devem ser validadas; (4) e devem produzir teorias que melhorem as práticas; (5)
estas devem ser validadas com métodos científicos; (6) a pesquisa deve iterar, no ciclo de
regulador, entre concepção e validação; (7) os resultados devem ser comunicados
(publicados nas bases de conhecimento referenciadas).
O quadro proposto é também muito próximo daquele de Nunamaker e Chen (1990),
que apresentam um processo de pesquisa de desenvolvimento de sistemas, na forma
também de um ciclo regulador. As diferenças são que Wieringa distingue problemas
práticos de questões de conhecimento e que ele dá maior atenção à investigação do
3275
problema, além de mostrar o aninhamento teórico/prático sempre presente neste tipo de
investigação científica.
5 DISCUSSÃO
Se Hevner et al. (2004) deixam claro que design e pesquisa são atividades
intimamente relacionadas (behavioral science e design science), coube no entanto à
Wieringa e Heerkens (2009) mostrarem que a interação dessas atividades não era
profundamente analisada, e isso criava problemas metodológicos. Em particular, os
problemas práticos e problemas de conhecimento em design science podem ser
confundidos, e isso pode criar problemas metodológicos. Quando confundidos corre-se o
risco de enfatizar-se apenas um deles, esquecendo-se do outro. Ou seja, pode-se por um
lado resolver um problema prático sem que haja a criação explícita de conhecimento ou se
pretender criar conhecimento sem nenhuma experimentação prática.
Wieringa identifica dois ciclos executados em paralelo durante uma iteração do ciclo
regulador. Um ciclo de engenharia que investiga o problema, concebe a solução, valida,
implementa e avalia. Um ciclo empírico (ou de conhecimento) que investiga o problema,
concebe a pesquisa, valida, executa e avalia os resultados.
FIGURA 4 – Ciclos prático e teórico
Fonte: o autor, baseado em Wieringa (2013).
Questões de conhecimento estão presentes no ciclo regulador. Para resolver um
problema de conhecimento, fazendo pesquisa, tem-se que descobrir o que se quer saber,
projetar a pesquisa com a qual se pretende adquirir este conhecimento, validar este projeto,
3276
executar a pesquisa como projetado, e, finalmente, avaliar os resultados. Este ciclo de
pesquisa tem a mesma estrutura que o ciclo de engenharia, e ambos têm a estrutura da ação
racional, em que planejamos uma ação antes de agir, e na qual podemos avaliar o resultado
de uma ação após o ato.
As tarefas de ambos os ciclos, de engenharia e de conhecimento são muito
semelhantes, a distinção não sugere que sejam fenômenos separados, embora devam ser
distintos durante a execução da pesquisa para melhor conceber e aplicar as metodologias e
com isso melhorar os resultados. A diferença principal é de objetivos: enquanto um altera o
estado do mundo e ganha conhecimento com isso, o outro altera o estado do conhecimento
e o aplica no mundo para validar a alteração.
Wieringa (2009) apresenta a distinção entre os tipos de problemas a serem
resolvidos: o problema prático e o de conhecimento. Ele define um problema prático como
a diferença entre a forma como o mundo é experimentado pelas pessoas e como elas
gostariam que fosse. Já o problema de conhecimento é a diferença entre o conhecimento das
pessoas sobre o mundo e o que elas gostariam de saber. Os problemas práticos exigem uma
mudança do mundo para que este melhor concorde com alguns objetivos das partes
interessadas. Problemas de conhecimento por sua vez não demandam uma mudança do
mundo, mas uma mudança do nosso conhecimento sobre o mundo (WIERINGA e
HEERKENS, 2009). Essa distinção não deve porém sugerir que sejam problemas
separados. A diferença principal é de objetivos. Enquanto um altera o estado do mundo e
ganha conhecimento com isso o outro altera o estado do conhecimento e o aplica no mundo
para validá-lo.
Como explica o autor, esta separação entre "problema de mundo" e "problema de
conhecimento", termos sinônimos a “problemas práticos” e “questões de conhecimento”,
pode criar a falsa impressão de que é sempre possível gerar conhecimento sem mudar o
mundo ou mudar o mundo sem gerar conhecimento. Para o autor é difícil gerar
conhecimento sem mudar o mundo, e alguns métodos de pesquisa, como a pesquisa-ação e
experimentos de laboratório, geram conhecimento através da manipulação do mundo, isto é,
alterando-o. Os pesquisadores devem ainda demonstrar que estas mudanças no mundo não
invalidam o conhecimento declarado, gerado pela pesquisa. Na outra extremidade do
espectro, é também extremamente difícil mudar o mundo sem aprender alguma coisa com
ele. Resolver um problema do mundo geralmente gera conhecimento. Assim, conclui o
autor que a distinção entre os problemas do mundo e os problemas de conhecimento é antes
de tudo uma questão de objetivos: quando o objetivo é resolver um problema de
3277
conhecimento, faz-se alguma coisa para obter conhecimento e controla-se as mudanças
criadas no mundo, de tal maneira a garantir que o conhecimento que se adquiriu é válido.
Quando o objetivo é resolver um problema do mundo, muda-se o mundo e tem-se o
conhecimento adquirido a partir dessa mudança, avaliando-a.
Estes dois problemas são ambos cidadãos de primeira classe na DSR, na medida em
que podem ser igualmente desafiadores, mas eles exigem diferenças metodológicas
importantes.
As respostas para problemas de conhecimento são proposições que são
declaradas e verificadas como verdadeiras ou falsas; soluções para problemas práticos são
mudanças no mundo indicadas (prescritas) para cumprir as metas dos steakholders. Como
consequência, a resolução de problemas práticos envolve investigar os objetivos das partes
interessadas e a avaliação de soluções envolve a aplicação de critérios de partes
interessadas; mas responder a problemas de conhecimento envolve a aplicação de critérios
de verdade, independentes de partes interessadas.
Finalmente, cabe notar que trata-se aqui de uma visão de mundo radicalmente
diferente daquela expressa por Vakkari (1994), que parecia reinar na ciência da informação
da época:
Practical objectives as well as practical problematics are typical for fields
other than that of scientific inquiry. If science tries mainly to
conceptualize and understand its object of interest, nonscience in this
respect attempts foremost to find solutions to practical problems in
everyday life. It implies that the methods used in science are scientific
methods, not methods of operation in some practical field (Vakkari, 1994,
p.5).
Na opinião do autor, Vakkari expressa aqui visão excessivamente positivista, que
com sua envergadura de autor seminal, pode ter repercutido certa estagnação da ciência da
informação; especialmente de suas linhas de pesquisa em informação e tecnologia e de
gestão da informação e do conhecimento. Com efeito, enquanto linhas de pesquisa de uma
ciência social aplicada, estas são inexoravelmente caracterizadas pela nidificação de
problemas práticos e questões teóricas.
6 EXEMPLO ILUSTRATIVO DA APLICAÇÃO DA DSR EM UM PROJETO DE
PD&I
A FIG. 5 mostra a estrutura aninhada 48 característica de um projeto de PD&I em
empresa do setor elétrico, coordenado pelo autor. O quadro maior apresenta os
desdobramentos do problema prático, de concepção de uma solução de Gestão Integrada de
48
Aninhamento entre problemas práticos e questões teóricas, revelado por Wieringa (2009).
3278
Documentos (GID) para um determinado contexto organizacional. O problema é como
deve-se conceber um sistema de Gestão Integrada de Documentos (GID49) para gerenciar os
registros (no sentido de documentos administrativos) envolvidos nos processos contábeis da
Empresa. O sistema deve além de reduzir os custos operacionais, respeitar toda a legislação
pertinente e garantir a segurança da informação. À luz dos conceitos da DSR apresentados,
o problema de pesquisa caracteriza-se como um problema prático que, contudo,
desmembra-se em vários subproblemas, que são eles mesmos de prática e teórica (de
conhecimento): problemas práticos ou questões de conhecimento.
A decomposição, apenas em primeiro nível, do problema pode ser vista na FIG. 5.
Cada subproblemas ou atividade, representada por um retângulo, é caracterizada na figura
como uma atividade de natureza prática ou teórica. Os termos “descrição”, “análise
conceitual”, “avaliação”, “prescrição”, “explicação”, denotam tipos de questões de
conhecimento, conforme classificação inspirada de Wieringa (2009).
FIGURA 5 – Desdobramentos teóricos e práticos de um projeto PD&I
Fonte: o autor, inspirado de Wieringa (2009).
49
“Integrada” aqui refere-se ao gerenciamento misto dos documentos em papel e formatos
eletrônicos.
3279
Conforme prega a DSR deve-se notar que em paralelo com o ciclo empírico existe
um outro ciclo de engenharia (cf. FIG 4), encarregado de especificar os requisitos do
sistema GID conforme os critérios estabelecidos em (3), desenvolver um protótipo (17),
validá-lo (18) e em seguida avaliá-lo em condições de prática cada vez mais realistas (19).
Avaliá-lo significa descrever o que ocorreu, encontrar razões, descrever os ajustes
necessários. Observar que, na figura, as setas grossas indicam a decomposição das tarefas,
as finas indicam a sua sequência.
Deve-se notar que os quadros-atividades (2 e 3) representam questões de
conhecimento, seguidos de um problema prático (4). Nos quadros 2 e 3 descreve-se em
detalhes quais são os problemas atuais com a GID nos processos contábeis de pagamento da
Empresa. Levanta-se os problemas, os stakeholders, seus objetivos, e seus critérios de
solução. O quadro-atividade (5) levanta os conceitos básicos oficiais (do Conarq, p.ex.) da
disciplina de GID, tais como: documento de arquivo, documento eletrônico, documento
arquivístico eletrônico, gestão de documentos arquivísticos (eletrônicos ou não) e muitos
outros. Além disso é preciso conhecer qual é a legislação nacional (nos três níveis da
federação) que regulamenta a prática da GID em organizações de capital misto (tipo de
capital da organização estudada). Deve-se buscar conhecer também diversas outras questões
como: se existem, quais são os princípios gerais internacionais (recomendados para a GID)?
quais são as abordagens usadas hoje para melhorar o gerenciamento de documentos em
grandes empresas? como levantar o acervo documental envolvido nos processos contábeis
da Empresa? por meio da modelagem de processos (modelos “as-is” e “to-be”) ou outro?
como conduzir oficinas de modelagem de processos? como elaborar um plano de
classificação (PdC) e uma tabela de temporalidade (TdT) para esses documentos? como
validade todos esses artefatos junto aos diferentes stakeholders?
7 CONCLUSÃO
Neste ensaio apresentou-se a design science research (DSR) e discutiu-se algumas
de suas características mais relevantes para a sua aplicação em pesquisas no campo da
ciência da informação. Procurou-se mostrar que a DRS é adequada como metodologia para
orientar pesquisas nesse campo, mais especificamente na subárea da informação e
tecnologia, abarcada pelo GT8 do Enancib.
O autor procurou defender ao longo do artigo que a DSR constitui a base epistêmica
que Vakkari (1994, p.50) adverte faltar ao paradigma gerencial da ciência da informação.
Portanto, munido de uma filosofia da ciência explicitada e cada vez mais bem estruturada e
fundamentada, o paradigma gerencial passa a constituir, juntamente com o paradigma
3280
cognitivo, uma parte muito expressiva da ciência da informação, conforme previa Vakkari
no mesmo artigo.
Mostrou-se como na DSR é possível tratar um problema de pesquisa sem perder de
vista a consideração de sua relevância e aplicabilidade, nem o rigor científico necessário à
geração de conhecimento novo. Ou seja, com a DSR o pesquisador está munido de métodos
que exploram os aspectos teóricos e práticos do seu problema de pesquisa, sempre
aninhados entre si. Argumentou-se, contudo, corroborando Wieringa (2009), que a
confusão dos dois pode levar a problemas metodológicos que inibem a qualidade e os
resultados das pesquisas.
Na mesma linha de raciocínio elaborada em Wieringa (2009), ilustrou-se através de
um exemplo prático, como a DSR guia a estruturação de um problema de pesquisa em
subproblemas menores. Interessa observar como tal estruturação revela o aninhamento entre
problemas práticos e questões de conhecimento; o que permite a orientação mais precisa na
escolha dos métodos mais adequados de pesquisa para cada tipo de problema: sejam
problemas do ciclo de engenharia ou do ciclo empírico, cf. FIG. 4.
O próximo passo da pesquisa relatada aqui será estabelecer um quadro teórico
estruturado, baseado na DSR, que possa ser utilizado para guiar metodologicamente as
pesquisas na área. O quadro deverá originar também critérios de avaliação da robustez
metodológica e do rigor científico das pesquisas.
Outra iniciativa futura, que julga-se de forte interesse epistêmico para o
desenvolvimento da ciência da informação, é a realização de um estudo crítico longitudinal
(à luz do quadro teórico estabelecido anteriormente e de seus critérios de avaliação) dos
artigos publicados no GT8. Acredita-se que ao explicitar a ontologia da DSR, bem como
seus mecanismos epistemológicos, metodológicos e até axiológicos e usar tal quadro para
realizar o auto-escrutínio das pesquisas publicadas, colabora-se significativamente para o
amadurecimento da ciência da informação. Assim, pesquisa similar à que realizaram
Wieringa e Heerkens (2006), analisando o corpus de artigos de periódicos do tema
engenharia de software também ficará para um futuro artigo.
O autor concorda com Simon (1996) que a DS está em um constante estado de
revolução científica (Kuhn, 1996), pois os avanços tecnológicos resultam de investigação
científica criativa e design inovador, mesmo que realizados de forma inconsciente pelos
pesquisadores. Para não serem irrelevantes nem arbitrárias essas pesquisas precisam estar
atentas ao conhecimento pré-existente e às necessidades de negócios das organizações.
Inovações, como as geradas na atual sociedade da informação tiveram impactos dramáticos
3281
e, por vezes, não intencionais sobre a maneira como os sistemas de informação são
concebidos, projetados, implementados e geridos. Consequentemente, as diretrizes da DSR
estão, necessariamente, em constante adaptação.
REFERÊNCIAS
FULLER, R; MCHALE, J. World Design Science Decade, 1965-1975. World Resources
Inventory. Southern Illinois University, USA, 1965.
GREGG, D. G.; KULKARNI, U. R.; VINZÉ, A. S. Understanding the philosophical
underpinnings of software engineering research in information systems, Information
Systems Frontiers v. 3, n. 2, p. 169-183, 2001.
GREGOR, S.; HEVNER, A. R. Positioning and presenting design science research for
maximum impact, MIS Quarterly, v. 37, n. 2, p. 337-356, 2013.
GREGORY, S.A. The Design Method. Butterworths. 1966.
HEVNER, A.R. A three cycle view of design science research, Scandinavian journal of
information systems, v. 19, n. 2, p. 4, 2007.
HEVNER, A.R.; CHATTERJEE, S. Design science research in information systems,
Springer, 2010.
HEVNER, A.R.; MARCH, S.T.; PARK, J.; RAM, S. Design science in information
systems research. MIS Quarterly, v. 28, n. 1, p. 75-105, 2004.
IIVARI, J. A paradigmatic analysis of information systems as a design science.
Scandinavian Journal of Information Systems, v. 19, n. 2, p. 5, 2007.
KUECHLER, W.; VAISHNAVI, V. The emergence of design research in information
systems in North America. Journal of Design Research, v. 7, n. 1, p. 1-16, 2008.
KUHN, T. The Structure of Scientific Revolutions. Chicago, Univ. of Chicago Press.
1996.
LACERDA, D. P.; DRESCH, A.; PROENÇA, A; JÚNIOR, J. Design Science Research:
método de pesquisa para a engenharia de produção. Gest. Prod., São Carlos, v. 20, n. 4, p.
741-761, 2013.
MARCH, S. T. and SMITH, G. F. Design and natural science research on information
technology. Decision support systems, v. 15, n. 4, p. 251-266, 1995.
NUNAMAKER Jr, J. F.; CHEN, M. Systems development in information systems research.
System Sciences, Proceedings of the Twenty-Third Annual Hawaii International
Conference, IEEE, p. 631-640, 1990.
SIMON, Herbet. The Sciences of the Artificial. MIT Press. ISBN 0-262-69191-4. 1996.
TAKAHASHI, Ricardo H. C. A estrutura do conhecimento tecnológico do tipo
científico. Belo Horizonte: UFMG, 2009. 213p.
VAISHNAVI, V.; KUECHLER, W. Design Research in Information Systems. 2009.
Disp. em: <desrist.org/design-research-in-information-systems>. Acesso em: 18 jul. 2014.
3282
VAKKARI, P. Library and Information Science: Its Content and Scope. In: GODDEN
IRENE, P. (Org.). Advances in librarianship. San Diego, 1994.
VISSER, W., The Cognitive Artifacts of Designing, Hillsdale, NJ, USA, Lawrence
Erlbaum Associates, 2006.
WIERINGA, R. Case Study Research in Information Systems Engineering. Anais
eletrônicos… CAiSE, 2013. Tutorial. Disponível em:
<http://wwwhome.cs.utwente.nl/~roelw/case-studies-CAiSE-2013-Wieringa.pdf>. Acesso
em: 29 set. 2014.
WIERINGA, R. Design science as nested problem solving, Proceedings of the 4th int. conf.
on design science research in information systems and technology, ACM, p. 8, 2009.
WIERINGA, R.; HEERKENS, J. The methodological soundness of requirements
engineering papers: a conceptual framework and two case studies. Req. Eng, v. 11, n. 4, p.
295-307, 2006.
3283
LIVROS DIDÁTICOS DIGITAIS EM AMBIENTES COMPUTACIONAIS NAS
NUVENS
DIGITAL TEXTBOOKS IN ENVIRONMENTS CLOUDS COMPUTER
Charles Rodrigues
Angel Freddy Godoy Viera
Resumo: Apresenta um estudo sobre os benefícios e limitações do uso dos livros didáticos
digitais em ambientes computacionais nas nuvens. Objetiva descrever e discutir o uso dos
livros didáticos digitais em ambientes computacionais nas nuvens apresentando algumas
experiências recentes. Trata-se de uma pesquisa bibliográfica, descritiva e analítica
caracterizando-se no conjunto uma pesquisa qualitativa. Na fundamentação conceitual são
abordados e discutidos os conceitos e características de livros didáticos digitais e de
ambiente computacional nas nuvens e as experiências do uso dos livros didáticos digitais,
em ambientes computacionais nas nuvens nos Estados Unidos, Coreia do Sul e no Brasil.
Ainda foi concebido um framework dos benefícios funcionais e das limitações, este
dividido em seis principais capacidades desejáveis em uma plataforma tecnológica de
recursos educacionais centrados em livros didáticos digitais. Nas considerações constatouse que o uso dos livros didáticos digitais em ambientes computacionais nas nuvens seja uma
tendência, sobretudo, considerando-se: o número de conexões com a internet e dos
dispositivos eletrônicos móveis, as novas possibilidades de uso das tecnologias da
informação e comunicação para o desenvolvimento de novos produtos, conteúdos e
aplicativos com foco na educação, que poderão intensificar ainda mais mobile learning. No
entanto, por ser um fenômeno hodierno e em fase de aperfeiçoamento o uso dos livros
didáticos digitais nas escolas enfrenta alguns entraves que necessitam mais aprofundamento
e discussões, alguns de viés tecnológico, outros de questões de políticas públicas e ou de
natureza legal.
Palavras-chave: Livros Didáticos Digitais. Ambientes Computacionais nas Nuvens.
Tecnologias Educacionais. Mobile Learning.
Abstract: Presents a study on the benefits and limitations of the use of digital textbooks in
environments cloud computational. Aims to describe and discuss the digital textbooks in
environments cloud computational presenting some recent experiences in using this feature.
This is a research bibliographic, descriptive and analytic in the set featuring a qualitative
research. In conceptual basis are addressed and discussed the concepts and features of
digital textbooks and environment clouds computing and the experiences of the use of
digital textbooks in the environments cloud computing in the United States, South Korea
and Brazil. Yet conceived a framework of functional benefits and limitations, this is divided
into six main desirable skills in technological platform educational resources centered on
digital textbooks. In the considerations it was found that the use of digital textbooks in
environment clouds computational is a tendency, particularly considering: the number of
internet connections and mobile electronic devices, the new possibilities of the use of
information technologies and communication with the development of new products,
content and applications with a focus on education may further intensify mobile learning.
However, being a meeting today and phase enhancement phenomenon the use of digital
textbooks in schools faces some obstacles that need more approaches and discussions, some
technological bias, other public policy issues and other legal matters.
Keywords: Digital Textbooks. Environments Cloud Computing. Educational Technologies.
Mobile Learning.
3284
1 INTRODUÇÃO
O desenvolvimento dos livros didáticos em formato digital como material
educacional e pedagógico constituinte do processo de ensino e aprendizagem destaca-se
como relevante quando se observa o número de conexões móveis no mundo, em torno de
sete bilhões, cento e cinco milhões em junho de 2014 (GSMA INTELLIGENCE, 2014).
Adicionado a este número de conexões, a conversão por meio de digitalização de livros
impressos e outros que já nasceram em formato digital, e paralelamente o aumento do
número de usuários “nativos digitais”, isto, de forma progressiva poderá provocar, num
futuro próximo, a eliminação dos livros didáticos em formato impresso.
A UNESCO (2013) em seu relatório sobre o futuro da mobile learning apresenta
alguns avanços tecnológicos com maior probabilidade de impactar o processo de ensino e
aprendizagem numa perspectiva global, a saber: 1) a tecnologia será mais acessível, menor
custo e funcional, a evolução tecnológica melhorará a funcionalidade, a conectividade e a
diminuição dos custos financeiros. A maior disponibilidade e penetração dos dispositivos
móveis inteligentes com serviços baseados nas nuvens irão proporcionar possibilidades para
a mobile learning em larga escala; 2) os dispositivos serão capazes de coletar, sintetizar e
analisar grandes quantidades de dados, estes dados estão sendo coletados de diversas
formas: desde os dados pessoais aos dados institucionais, estas informações estão sendo
registradas pelos provedores de serviços nas nuvens. Na área educacional este conjunto de
dados é proveniente de diversas fontes, como: perfis de trabalhos dos alunos; resultados de
avaliação; registros de frequência; o tempo gasto em tarefas ou atribuições específicas; e
informações produzidas ou utilizadas pelos alunos, incluindo textos, imagens, vídeos ou
músicas. No futuro, os dispositivos ligados à nuvem terão a capacidade de sintetizar
maiores quantidades de dados e poderão analisá-las por padrões; 3) novos tipos de dados
estarão disponíveis, muitos dispositivos móveis já têm diferentes tipos de sensores que
podem, por exemplo, captar o som através de um microfone, localizar por meio de um GPS,
e sentir o movimento, a velocidade e a direção através de um acelerômetro. Atualmente
estes sensores permitem analisar padrões de sono e monitorar os sinais vitais, como por
exemplo, os batimentos cardíacos. Novos tipos de dados, combinados com os dados
coletados por meio da tecnologia móvel, possibilitarão relações mais estreitas entre os
alunos e os seus dispositivos. Esses irão "conhecer" as preferências de seus donos e estarão
intimamente e inteligentemente conectados a eles, proporcionando uma aprendizagem mais
personalizada e contextual; 4) barreiras linguísticas serão quebradas, os avanços recentes
na área de processamento da linguagem natural, permitem o reconhecimento de linguagem
3285
natural em dispositivos móveis e são capazes de traduzirem sem problemas, a linguagem
falada, com um elevado grau de precisão. Assim, os alunos terão acesso a uma gama muito
maior de recursos e conteúdos educacionais em diferentes línguas; 5) as limitações de
tamanho da tela irão desaparecer, o tamanho da tela dos dispositivos serão diferentes, por
exemplo, as tecnologias de visualização flexíveis permitirão que os usuários possam dobrar
o tamanho de uma tela de um tablet ou smartphone transmitindo o conteúdo para
visualização em um televisor de tamanho maior ou rolar uma grande tela em um pequeno
cilindro de fácil portabilidade. Projetores ou óculos, como os óculos de realidade
aumentada, serão capazes de exibir telas muito maiores do que aquelas fisicamente
disponíveis em um dispositivo móvel, com excelente resolução e com capacidade em 3D; e
6) as fontes e a capacidade de armazenamento de energia vão melhorar, as limitações e
capacidade de armazenamento podem ser barreiras para programas de mobile learning.
Melhorias consideráveis serão feitas, como baterias menores, mais baratas, mais
duradouras, mais eficientes e recarga mais rápida.
Em decorrência do desenvolvimento das tecnologias de informação e comunicação,
as formas como as pessoas interagem e usam essas tecnologias vem alterando o ambiente
educacional. A aplicação destas à educação pode melhorar os métodos didáticos e
pedagógicos por meio de várias funções que antes não estavam disponíveis nas salas de
aulas tradicionais. Pode, por exemplo, permitir aos alunos personalizarem experiências de
aprendizagem, conforme, suas capacidades e seus interesses.
Em contextos de educação formal no mundo desenvolvido, a transição para livros
didáticos digitais é uma das tendências mais estabelecidas em mobile learning. Como os
dispositivos eletrônicos móveis e os aplicativos de leitura eletrônica continuam a melhorar,
a experiência de leitura está se tornando mais agradável e propício para a aprendizagem.
Novas abordagens para a conversão e criação de livros didáticos estão se afastando de
meras reproduções digitais de textos impressos para interfaces visualmente mais ricas que
podem incluir multimídia, elementos interativos e colaborativos (GSMA, 2011).
Há muitos indícios de que o uso da tecnologia pode melhorar a oportunidade para o
acesso educacional, aumentar o envolvimento e o resultado dos alunos, e aprimorar a
produtividade de aprendizagem. De acordo com o Departamento de Educação dos Estados
Unidos e recentes estudos realizados pela Associação Nacional de Treinamento e
Simulação do mesmo país, a instrução baseada em tecnologia pode reduzir de 30 a 80 por
cento, o tempo necessário para os alunos atingirem um objetivo de aprendizagem. Em
média, os estudantes que receberam aprendizagem online tiveram desempenho melhor do
3286
que aqueles que receberam instrução face a face (FEDERAL COMMUNICATIONS
COMMISSION, 2012).
É importante ressaltar, entretanto, que esses avanços tecnológicos não ocorrem de
forma equânime entre os países do mundo e nem dentro dos países com alto nível de
inovações tecnológicas. Como os países e regiões de todo o mundo têm políticas diferentes
em relação aos livros digitais, para estabelecer padrões para a sua implementação em salas
de aulas é necessário considerar que, não só os livros digitais diferem entre os contextos
culturais, mas os impactos causados a este ambiente também são diferentes. Os livros
didáticos digitais não só irão fornecer acessos aos livros impressos digitalizados, mas
também, complementar o conteúdo educacional existente com recursos e ferramentas
adicionais para a aprendizagem.
O ambiente computacional nas “nuvens” pode viabilizar o acesso a conteúdos
pedagógicos, a livros didáticos digitais, além de outros recursos online de alta qualidade a
alunos, corpo docente e funcionários da escola, em qualquer lugar, a qualquer hora,
podendo promover aulas online à distância. As aulas presenciais também são beneficiadas
na medida em que há possibilidades de acesso e compartilhamento ao amplo acervo de
informação multimídia online, por meio de conexão com a Internet. Isso demarca as
vantagens do ambiente computacional nas “nuvens” que possibilita que os conteúdos
pedagógicos e didáticos não sejam armazenados apenas nos arquivos locais dos
dispositivos, mas que possam ser acessados em múltiplos dispositivos eletrônicos, e permite
que os padrões de uso de diversos usuários possam ser registrados para sugerir conteúdos a
grupos de usuários com perfil de interesse similar baseado na experiência de outros
usuários.
Assim este estudo objetiva descrever e discutir os livros didáticos digitais em
ambientes computacionais nas nuvens apresentando algumas experiências recentes no uso
deste recurso.
2 METODOLOGIA
O conteúdo apresentado neste artigo é parte dos estudos realizados no contexto do
grupo de pesquisa Recuperação de Informação e Tecnologias Avançadas (RITA) e
integrante dos fundamentos conceituais que estão sendo desenvolvidos para tese de
doutoramento sobre a temática, no programa de pós-graduação em Ciência da Informação
da Universidade Federal de Santa Catarina (PGCIn/UFSC). Trata-se do resultado
decorrente de uma pesquisa bibliográfica, descritiva e analítica caracterizando no conjunto
uma pesquisa de base qualitativa.
3287
A pesquisa bibliográfica foi realizada para: conhecer quem está estudando o tema
livros didáticos digitais, onde (instituições e regiões geográficas) e sob quais abordagens;
conhecer os periódicos que se dedicam ao assunto; a produção científica disponível;
verificar que novas abordagens poderão ser realizadas; e a construção de argumentos que
poderão ser utilizados na fundamentação conceitual desse estudo (SOUZA, 1997).
Este estudo se caracteriza como descritivo e analítico, pois, visa delinear a natureza
do objeto em estudo, no caso, livros didáticos digitais em ambientes computacionais nas
nuvens apontando uma análise crítica das características, das correlações e descrição dos
fatos e fenômenos observados, sem interferência no mesmo.
Pela situação e característica do objeto de estudo foi utilizado uma abordagem
qualitativa. Neste caso, tentou-se descrever e discutir um processo recente e dinâmico,
experimentado de um objeto social em constante mudança.
Durante o estudo foram desenvolvidas as seguintes etapas: (1) pesquisa
bibliográfica, na base de dados do portal de periódicos da CAPES para identificação e
reconhecimento inicial do fenômeno e das abordagens já realizadas; (2) construção de uma
revisão de literatura (fundamentação conceitual), com desenvolvimento de estudos
conceituais para compreender o objeto de estudo em seu contexto cultural; (3) seleção e
interpretação de amostra da realidade observada; e (4) utilização da fundamentação
conceitual para interpretar as informações coletadas na realidade observada.
3 FUNDAMENTAÇÃO CONCEITUAL
São apresentados e brevemente discutidos os conceitos relacionados à temática em
estudo, com referências aos fundamentos, aos benefícios e limitações dos livros didáticos
digitais em ambientes computacionais nas nuvens e as experiências em alguns países.
3.1 Livros Didáticos Digitais
O paradigma da educação está se movendo em direção ao e-Learning, o que exige a
participação ativa dos alunos, a interação através da cooperação e compartilhamento de
informações e o uso de recursos educacionais como os livros didáticos digitais baseados na
Web 2.0.
Entende-se e-Learning como processo de ensino e aprendizagem apoiado por uma
rede de computadores permitindo acesso a um conjunto de diferentes recursos didáticopedagógicos centrados no aluno. Nesse tipo de aprendizagem o ritmo de assimilação de
conhecimento, o horário, e o local de acesso ao conteúdo é pautado pelo aluno. Importante
3288
destacar, que o professor não será descartado, mas, seu papel será transformado, em
mediador entre o conhecimento disponível e o aluno.
Neste contexto de mudança do ambiente educacional Jung (2009) conceitua livro
didático digital como
um livro centrado no aluno que se destina a promover vários tipos de
interações, e que permite ao aluno trabalhar de acordo com as suas
necessidades e nível, seja na escola ou em casa, sem os limites de tempo e
espaço, e que integra todo o conteúdo existente dos livros didáticos em
papel, referências, livros de tarefas, e dicionários, e fornece um ambiente
de aprendizagem multimídia que inclui vídeos, animações e realidade
virtual (JUNG, 2009, p.4).
Além disso, oferece as funções de busca na Internet, tornando o ambiente de
aprendizagem mais animado e orientado aos interesses dos alunos. Possibilitando ainda, a
interação dos alunos com outros alunos, sem importar sua localização geográfica, por meio
do uso das redes sociais como elemento fomentador do processo de ensino e aprendizagem
colaborativo.
O livro didático digital é um livro voltado para o futuro, que pode ajudar os alunos a
aprender de forma autodirigida a qualquer hora e em qualquer lugar. O livro didático digital
é adequado para os nativos digitais que estão acostumados com o ambiente digital, desde a
infância. Este permite que os alunos tenham não só o conteúdo de livro didático geral, mas
também vários materiais de aprendizagem personalizados, com funções interativas que
permitem aos alunos aprender de acordo com as suas aptidões, habilidades e níveis (JANG,
2014).
O uso dos livros didáticos digitais irá exigir de todos envolvidos (professores,
tecnólogos, pais e até mesmo os decisores políticos) a pensar em como adequar o seu uso
em sala de aula, uma vez que, num futuro próximo ele não irá substituir os livros impressos,
mas sim, complementá-los, principalmente em regiões com baixa infraestrutura tecnológica
digital. Nas salas de aula, professores e alunos deverão começar a valorizar a conveniência
e acessibilidade desses recursos. Os tecnólogos devem trabalhar para expansão do uso
através da criação de consciência da usabilidade dos livros didáticos digitais em diversos
tipos de dispositivos móveis. Com isso, os pais serão expostos as mais recentes tecnologias
de educação desenvolvidas, e poderão participar mais ativamente no processo de ensino e
aprendizagem (EMBONG et al., 2012).
Ao longo dos anos pode-se verificar que as tecnologias de informação e
comunicação tornaram-se um ponto relevante entre os educadores como ferramentas
eficazes tanto no processo de ensino e aprendizagem como de gestão dos recursos
educacionais. Logicamente, que seu uso e perspectivas são bastante recentes, no entanto, a
3289
sua utilização apresenta algumas vantagens que representam benefícios para os alunos, pais
e gestores escolares.
Para os alunos os benefícios apresentados são: menor peso a ser carregado, pois,
possibilita compactar em um único dispositivo eletrônico, uma grande quantidade de livros
impressos; a possibilidade do processo de aprender tornar-se mais atraente, com a utilização
de interface gráfica mais intuitiva e colorida, em muitos casos até personalizáveis, com uso
de imagens, sons e vídeos, utilização de recursos para aumentar ou diminuir o tipo de letra,
uso de hiperlinks para acessar mais conteúdo sobre um tema de pesquisa; também, permitir
aos alunos personalizar sua experiência de aprendizagem conforme seus interesses e
habilidades.
Para os pais uma das vantagens de uso dos livros didáticos digitais é a questão
financeira, que com a produção em larga escala tornará os custos de aquisição ainda
menores, e permitirá que os autores atualizem os conteúdos dos livros didáticos de forma
mais fácil e rápida.
Para os gestores escolares o uso dos livros didáticos digitais poderá facilitar o
processo de gestão escolar, uma vez que, permite monitorar, registrar e documentar o
conteúdo acessado e estudado pelos alunos, contribuindo para o planejamento das aulas.
Por ser um fenômeno hodierno o uso dos livros didáticos digitais nas escolas ainda
enfrenta algumas limitações, de carácter tecnológico, de questões políticas e culturais.
Dentre outras, ressaltamos: os educadores e gestores precisam ser capacitados
adequadamente para conduzir as aulas com os livros didáticos digitais; há a necessidade de
ampla infraestrutura física e de rede lógica estruturada; a limitação da capacidade de
armazenamento dos leitores de conteúdos didáticos eletrônicos para acesso offline; o
fornecimento de conteúdo eletrônico na quantidade e no modelo necessário nas escolas;
para alguns alunos os livros didáticos digitais podem não oferecer o mesmo prazer e
comodidade de leitura comparada a um livro impresso; a dificuldade de aquisição/compra,
pois, existem diferentes modelos de negócios; e outra dificuldade encontra-se em relação
aos direitos de propriedade intelectual, devido, ao rigor do Digital Rights Management
(DRM) implementados por alguns fornecedores de conteúdos.
Nas subseções seguintes são descritos o uso, os benefícios e limitações e
experiências de alguns países no uso dos ambientes computacionais nas nuvens para
suportar os livros didáticos digitais.
3290
3.1.1 Livros Didáticos Digitais em Ambientes Computacionais nas Nuvens
A utilização dos ambientes computacionais nas nuvens como suporte para os
recursos educacionais ainda são incipientes, em grande parte devido à falta de recursos para
reforçar a infraestrutura física e tecnológica necessária para o desenvolvimento deste
ambiente. No entanto, pelas suas características, benefícios e observando o amplo avanço
do uso da tecnologia nas nuvens em outros setores da sociedade, o seu uso na educação
provavelmente será ampliado.
Os dispositivos eletrônicos e/ou móveis, os livros didáticos digitais e outros
conteúdos educacionais em formato digital viabilizam a promoção de aulas online à
distância. Os benefícios do acesso via ambiente nas nuvens promovem e estimulam a
ampliação e desenvolvimento de acervo de diferentes conteúdos armazenado nesse
ambiente. Uma das vantagens desse ambiente é permitir que os conteúdos não sejam
armazenados apenas nos arquivos locais dos dispositivos, mas também, possam estar
acessíveis em múltiplos dispositivos e de forma remota.
O Instituto Nacional de Padrões e Tecnologia (NIST) do Departamento de Comércio
norte-americano, em 2011 definiu “Computação nas nuvens” como
um modelo que permite acesso ubíquo, conveniente e sob demanda via
rede a um agrupamento compartilhado e configurável de recursos
computacionais (por exemplo, redes, servidores, equipamentos de
armazenamento, aplicações e serviços), que pode ser fornecido e liberado
com esforços mínimos de gerenciamento ou interação com o provedor de
serviços (JULA; et al., 2014, p. 3.810-3.811).
É uma plataforma de aplicação emergente e tem como objetivo hospedar,
comunicar, compartilhar dados, conteúdos, cálculos e serviços entre os usuários.
As características essenciais do ambiente de computação nas nuvens para os
recursos educacionais podem-se generalizar em: i) autosserviço sob demanda: o aluno deve
ser capaz de alocar novos recursos automaticamente, sem interação humana com o provedor
de serviços, ter acesso aos conteúdos educativos e as aulas com autonomia; ii) acesso amplo
via rede: os recursos devem estar disponíveis por meio da rede e devem ser acessíveis por
estrutura padrão, permitindo o uso por diferentes dispositivos, tais como computadores
pessoais, smartphones, tablets, dentre outros; iii) agrupamento de recursos: os recursos
computacionais do provedor de serviços devem ser agrupados para servir a múltiplos
consumidores (alunos, corpo docente e gestores escolares), com recursos físicos e virtuais
sendo arranjados e rearranjados dinamicamente conforme a demanda desses consumidores;
iv) elasticidade rápida: os recursos devem ser alocados e liberados de forma elástica e em
alguns casos automática, permitindo a rápida adaptação à demanda. Para o ambiente
3291
educacional, é importante que os recursos estejam disponíveis em quantidades desejadas a
qualquer momento, isto é, possibilitar a customização, conforme, o perfil do aluno, dos
professores e das necessidades pontuais que ocorrerem; v) serviços mensurados: os serviços
de computação nas nuvens devem controlar e otimizar os recursos de maneira automática.
Deve ser possível monitorar, controlar e consultar o uso dos recursos, provendo
transparência para o ambiente educacional e para o provedor dos serviços (JULA; et al.,
2014).
3.1.1.1 Benefícios e Limitações dos Livros Didáticos Digitais
Computacionais nas Nuvens
em Ambientes
As tecnologias são sustentadas e desenvolvidas num processo de construção e
aperfeiçoamento contínuo, assim, também, ocorre com os livros didáticos digitais, os quais
já apresentam vantajosos benefícios para o ambiente educacional, no entanto, ainda
enfrentam enormes desafios e limitações em sua adoção, expansão e desenvolvimento.
Com base nas informações e argumentos apresentados por Ash (2011), Embong; et
al. (2012), Jang (2014) construiu-se um framework dos benefícios funcionais e das
limitações da postagem de livros didáticos digitais em ambientes computacionais nas
nuvens. Este dividido em seis principais capacidades desejáveis em uma plataforma
tecnológica de recursos educacionais centrados em livros didáticos digitais.
1)
Dispositivos de aprendizagem personalizável e interativa
−
Benefícios – podem oferecer lições individualizadas e personalizadas ao
estilo e nível do aluno, permitir a retroalimentação em tempo real aos alunos, pais,
professores ou tutores. Podem apresentar variados tipos de materiais auditivos ou visuais,
incluindo voz, texto, música, animações em 3D, fotografias ou vídeos, isoladamente ou em
diferentes combinações. Com hiperlinks a diversos conteúdos vinculados por meio da web
para facilitar a aprendizagem autodirigida. Podem também, proporcionar flexibilidade no
uso, permitindo aos alunos definir a velocidade da fala, decidir se o texto escrito também
deve ser lido em voz alta, escolher o idioma apresentado no texto, ou repetir a apresentação
em quantidade de vezes que o aluno quiser. A plataforma deve permitir aos alunos iniciarem
discussões com os outros sobre conteúdos e atividades, de forma interativa. Pode
possibilitar a pesquisa de mais informações sobre a temática da aula em outros livros
didáticos digitais ou em outros repositórios educacionais. Como exemplos desses
repositórios, pode-se citar: o Portal do Professor do Ministério da Educação (MEC) do
Brasil, Banco Internacional de Objetos Educacionais, OpenCourseWare do Instituto de
Tecnologia de Massachusetts, MERLOT - Multimedia Educational Resources for Learning
3292
and Online Teaching e CK - 12 do Estado da Califórnia, nos Estados Unidos e KERIS da
Coréia do Sul.
−
Limitações – é necessária a formação e treinamento dos alunos, do corpo
docente e funcionários no uso desta nova tecnologia. Definir que tipo de treinamento e
suporte para promover a aceitação de novos modelos de ensino e aprendizagem. Também, é
necessário criar estratégias para acelerar a criação de módulos interativos e personalizados
de conteúdos de aprendizagem digital. É importante o desenvolvimento de metodologias
para avaliar a eficiência desses recursos. E outra questão, a se refletir, é sobre a adesão a
esses recursos, pois, para alguns alunos os livros didáticos digitais podem não oferecer o
mesmo prazer de leitura em comparação com a leitura de um livro impresso.
2)
Função de gestão de aprendizagem e ferramenta de avaliação
−
Benefícios – conexão com ferramentas de avaliação dentro e fora do
ambiente do livro didático digital; o sistema de gestão de aprendizagem deve permitir aos
professores compreender os pontos fortes e fracos dos alunos, criando um programa de
plano de estudo personalizado, para que eles possam trabalhar as habilidades em que
possuem mais dificuldades. Outro benefício é a capacidade de apresentar informações e
atividades em vários formatos, isto, significa que a plataforma tecnológica pode aceitar uma
variedade de solicitação de formulário de entradas de dados. Dentre outras funcionalidades
pode ser programado para verificar o trabalho de um aluno. Sendo altamente capaz de
gravar e organizar informações e disponibilizar em vários formatos. Pode, por exemplo,
gravar as respostas de todos os alunos de uma classe e, em seguida, comunicar
imediatamente ao professor os erros cometidos por cada aluno, bem como os erros comuns
de toda a classe. Em tarefas mais complexas, pode servir como dispositivo de registro e
comunicação para os professores, ajudando a acompanhar o progresso dos alunos de
maneira mais conveniente, permitindo que os professores criem conteúdos para reforçar as
temáticas em que os alunos têm maior dificuldade.
−
Limitações – também é necessária a formação e treinamento dos alunos, do
corpo docente e funcionários no uso desta nova tecnologia. Além disso, outras questões
merecem mais aprofundamento, como: deliberar sobre o desenvolvimento de modelos de
ensino e aprendizagem; definir o papel do professor na sala de aula com a utilização dos
livros didáticos digitais; e decidir até que ponto, os alunos terão a liberdade para direcionar
suas próprias lições. E outro tema se refere à eficiência dos livros didáticos digitais, pois,
são necessários estudos consistentes para verificar sua contribuição no desempenho dos
alunos no processo de aprendizagem. Em relação às avaliações é necessário o
3293
desenvolvimento de tecnologias que permitam a verificação da identidade do aluno que está
desenvolvendo as atividades e avaliações propostas nos livros didáticos nas nuvens.
3)
−
Melhoria da saúde dos alunos
Benefícios – pode promover melhorias, tanto físicas como psicológicas. Um
dispositivo eletrônico pode comprimir o conteúdo de vários livros didáticos impressos, isto,
reduz o peso da carga que os alunos precisam carregar diariamente. Esta redução de peso,
fisicamente, permite que os alunos cresçam de forma mais saudável, sem efeitos
prejudiciais, tais como dores nas costas, má postura, deformidade da coluna vertebral e
problemas de coluna na idade adulta. Psicologicamente, os alunos que se envolvem com os
livros didáticos digitais podem achar o processo divertido devido às características atraentes
do suporte (funções de fácil utilização; gráficos coloridos; possibilidade de modificar o
tamanho do texto; plug-ins falantes, dentre outras). Estas características podem encorajar e
motivar a criatividade e autonomia de aprendizagem dos alunos.
−
Limitações – o uso intensivo de tecnologia pode provocar tendência à
diminuição da interação social dos estudantes e provocar problemas de saúde como, a
Síndrome VTD (Visual Display Terminal); a Insônia em adolescentes, cansaço ocular,
tendinites e contraturas e ganho de peso por inatividade.
4)
Processo de gestão escolar
−
Benefícios – facilita o processo de gestão, na elaboração e execução da
proposta pedagógica, na administração de pessoal e dos recursos materiais e financeiros, no
monitoramento do ensino e aprendizagem, e no fortalecimento da comunicação entre
professores, alunos, escola, pais e comunidade, proporcionando assim, uma maior
integração. Ao permitir monitorar as atividades realizadas por cada aluno em sala de aula
física e virtual, é possível registrar, documentar, categorizar, criar e acessar diversos
relatórios. Assim, os professores e gestores podem tomar melhores decisões para aprimorar
os métodos de ensino e aperfeiçoar o processo de gestão e de aprendizagem dos alunos em
sala de aula.
−
Limitações – como em outras capacidades é necessária a formação e
treinamento dos alunos, do corpo docente e funcionários no uso desta nova tecnologia. O
armazenamento de conteúdo em ambiente nas nuvens aumenta o risco de comprometimento
da privacidade se comparado ao armazenamento offline. As questões que envolvem as
estruturas físicas das salas de aulas presenciais, como mesas e cadeiras adequadas para o
uso de dispositivos eletrônicos e o número de tomadas de energia em cada sala de aula para
garantir o uso ininterrupto dos equipamentos são necessárias serem resolvidas. O
3294
fornecimento insuficiente de dispositivos ou conteúdos didáticos eletrônicos em escolas,
também, pode ser um entrave. Em termos de gestão de recursos materiais, as limitações
impostas pelo DRM, muitas vezes impede que os livros didáticos digitais sejam deslocados
de um dispositivo para outro são barreiras que podem impedir acesso a conteúdos de
interesse dos alunos.
5)
Economia de custos
−
Benefícios - o uso em salas de aulas de livros didáticos digitais em ambientes
computacionais poderá reduzir os custos com materiais pedagógicos. Os preços,
geralmente, são menores do que dos livros didáticos impressos, além do mais, a vida útil do
livro impresso é menor em comparação com o formato digital. Pela natureza do formato
digital, a atualização de conteúdo poderá ser otimizada, ágil e de menor custo.
−
Limitações – mais uma vez, em alguns casos, as limitações impostas pelo
DRM podem tornar o custo de aquisição maior. Custos altos dificultam a distribuição dos
conteúdos didáticos e o acesso à banda larga nas escolas e nas casas dos alunos mais
carentes. Além disso, é necessário discutir novos modelos de negócio que permitam aos
estudantes e professores utilizar os dispositivos e outras novas tecnologias, agora e nos
futuros ciclos dos produtos. E construir meios de garantir o acesso e a disponibilidade de
conteúdos a todos os alunos de uma rede de ensino.
6)
−
Garantir a sustentabilidade dos recursos
Benefícios – o processo de aprendizagem também deve apoiar e promover o
desenvolvimento sustentável da sociedade. Os livros didáticos digitais hospedados em
ambientes nas nuvens podem contribuir para este esforço por meio da maximização da
disponibilidade de conhecimento, reduzindo o número de árvores derrubadas para produzir
livros impressos.
−
Limitações – a produção, o armazenamento e a utilização de conteúdos
digitais, também, consomem muita energia. Além disso, ainda, é dependente de uma rede
contínua de energia elétrica para o uso dos dispositivos eletrônicos ou para o
recarregamento de suas baterias. Adiciona-se que o custo ambiental para geração de energia
para os datas centers que viabilizam os serviços nas nuvens é enorme.
No QUADRO 1 são apresentados resumidamente os principais benefícios e
limitações do uso dos livros didáticos digitais em ambientes computacionais nas nuvens.
3295
QUADRO 1 - Benefícios e Limitações dos Livros Didáticos Digitais em Ambientes
Computacionais nas Nuvens
Capacidades
Benefícios
Limitações
Dispositivos de
aprendizagem
personalizável e
interativa
Lições individualizadas e
personalizadas. Diversidade de
materiais de aprendizagem em
multimídias. Maior Interatividade.
Necessidade de: formação e
treinamento; criação de módulos
interativos e personalizados; novas
metodologias; e estratégias de adesão.
Função de gestão
de aprendizagem e
ferramenta de
avaliação
Ampliação de matérias de
aprendizagem. Compreensão dos
pontos fortes e fracos dos alunos.
Programa de plano de estudo
personalizado e individualizado.
Capacidade de gerir informações
sobre o aprendizado e avaliação.
Necessidade de: formação e
treinamento; novos modelos de ensino
e aprendizagem; definir o papel do
professor; de decidir a autonomia dos
alunos; de verificar a contribuição dos
livros didáticos digitais no aprendizado
dos alunos.
Melhoria da saúde
dos alunos
Físicos – pode evitar dores nas
costas, má postura, deformidade da
coluna vertebral e problemas de
coluna. Psicológicos - podem
encorajar e motivar a criatividade e
autonomia de aprendizagem.
Pode diminuir a interação social e
provocar problemas de saúde como, a
Síndrome VTD; a Insônia, cansaço
ocular, tendinites e contraturas e ganho
de peso por inatividade.
Processo de gestão
escolar
Na elaboração e execução da
proposta pedagógica, na
administração de pessoal e dos
recursos materiais e financeiros, no
monitoramento do ensino e
aprendizagem, e na comunicação e
integração da comunidade escolar.
Necessidade de formação e
treinamento. Maior risco de
comprometimento da privacidade.
Necessidade de infraestrutura física
adequada, de rede de energia e de
computadores. Limitações impostas
pelo DRM.
Redução dos custos de aquisição e
de atualização dos materiais
pedagógicos.
O DRM pode tornar o custo de
aquisição maior. Custos altos
dificultam a distribuição de materiais e
o acesso à Internet de banda larga.
Necessidade de novos modelos de
negócio e de garantia de acesso e a
disponibilidade de conteúdos.
Podem contribuir para a
sustentabilidade dos recursos
naturais, com a maximização da
disponibilidade de conhecimento.
A produção, o armazenamento e a
utilização de conteúdos digitais
consumem muita energia.
Dependência de rede de energia
elétrica continua. O custo ambiental
para geração de energia para os datas
centers.
Economia de custos
Garantir a
sustentabilidade dos
recursos
Fonte: Dos autores (2014).
Os benefícios do uso dos livros didáticos digitais suportados em um ambiente
computacional nas nuvens são diversos, conforme descritos neste framework, no entanto, a
operacionalização depende inicialmente de alto investimento financeiro em infraestrutura
tecnológica e de redes de computadores. Como na aquisição de: computadores, acesso à
3296
Internet de banda larga eficiente, mesas e carteiras adaptadas com tomadas elétricas e de
conteúdos digitais pedagógicos. Além disso, existe a dependência permanente de rede de
energia elétrica estável. Importante, também, que a plena expansão desses serviços para
toda rede de ensino, depende, de políticas públicas focadas no combate à exclusão digital.
Para que as atividades educativas complementares possam ocorrer nas residências e com a
participação dos pais dos alunos.
Na seção seguinte serão expostas as experiências do uso dos livros didáticos digitais
que estão ocorrendo em países como os Estados Unidos, Coreia do Sul e Brasil.
3.1.1.2 Uso dos Livros Didáticos Digitais em Ambientes Computacionais nas Nuvens –
Experiências em Alguns Países
Em alguns países com alto nível de penetração tecnológica, o uso das tecnologias de
informação e comunicação já são presentes no cotidiano dos sistemas de ensino,
provocando mudanças nos hábitos e nas metodologias didáticas pedagógicas.
Nos Estados Unidos foi criado o Digital Textbook Playbook, um guia para ajudar os
administradores e educadores na construção de experiências de aprendizagem digital. É
resultado de um esforço conjunto de partes interessadas da indústria, funcionários de
escolas e líderes de ONGs para incentivar a colaboração entre os atores desse ecossistema.
Visando acelerar o desenvolvimento de livros didáticos digitais, para melhorar a qualidade e
o nível de penetração da aprendizagem digital na educação pública.
Este programa propõe quatro etapas envolvendo gestores e educadores: i) Fazer a
transição, ii) Conectividade na escola, iii) Conectividade além da escola e iv) Perspectivas
dos dispositivos. Na etapa i) Fazer a transição, os distritos escolares necessitam de
liderança compartilhada e dedicada, planejamento cuidadoso, envolvimento dos professores
e da comunidade para criar um ambiente de aprendizagem digital bem-sucedido; na
segunda etapa ii) Conectividade na escola, a chave para o fornecimento de conectividade
suficiente está no estudo da estimativa atual e demanda futura do bairro, da escola e das
salas de aulas. Isto irá assegurar que as escolas tenham acesso à Internet de banda larga
suficiente para atender aos seus alunos, corpo docente e funcionários; na etapa iii)
Conectividade além da
escola, para realização de uma aprendizagem digital
verdadeiramente ubíqua, os alunos devem ter a oportunidade de se conectarem além das
paredes das escolas. Isto pode ocorrer por meio da combinação de banda larga móvel,
conectividade na comunidade, e acesso à banda larga em casa; e na iv) Perspectivas dos
dispositivos, um verdadeiro livro digital é um conjunto interativo de conteúdo e ferramentas
de aprendizagem acessados através de um laptop, tablet, smartphone ou outro dispositivo
3297
avançado. Nesta perspectiva os dispositivos eletrônicos e a plataforma tecnológica devem
ser interoperáveis para possibilitar a difusão dos livros didáticos digitais (FEDERAL
COMMUNICATIONS COMMISSION, 2012).
Este guia está organizado em quatro etapas que seguem aproximadamente a cadeia
cronológica necessária para a adoção dos livros didáticos digitais por uma rede de ensino.
Apresentando preocupação com as questões pedagógicas, de infraestrutura física e
analógica e questões sociais, como a inclusão digital. A intenção desse programa é que as
articulações dessas etapas consigam atender aos desafios nos ambientes de aprendizagem
digitais, tais como: conteúdos, conectividade, tecnologia, gestão pública e gestão escolar.
Recentemente a Coreia do Sul implantou o Plano de Desenvolvimento do Livro
Didático Digital. O governo sul-coreano selecionou os livros didáticos digitais como a
mídia de educação para liderar um novo paradigma na educação do país, a “Smart
Education”. Apresentando três razões: primeira, os estudantes já se tornaram o que são
referidos como "nativos digitais"; segunda, os livros didáticos em papel enfrentam
limitações na sociedade baseada no conhecimento e informação, onde a tecnologia ubíqua é
a norma; e em terceiro lugar, o país é equipado com uma infraestrutura de tecnologia de
informação e comunicação de primeira classe mundial e da capacidade humana para utilizar
a infraestrutura de forma apropriada. Em consequência desse desenvolvimento tecnológico,
desde 2011, o Ministério da Educação, Ciência e Tecnologia tem preparado a estratégia de
promoção da Smart Education, centrando-se no ensino e aprendizagem personalizada
(JUNG, 2009).
A Smart Education mudou a forma como se percebe os livros didáticos. A
transferência dos livros tradicionais em papel para livros digitais permitiu que os alunos
deixassem de usar mochilas pesadas e possibilitou a exploração de um mundo para além da
sala de aula. Os livros didáticos digitais, ricos em conteúdos, estão diretamente ligados à
promoção de aulas online. As aulas online não só ajudam os alunos a compensarem as
ausências, mas também facilitam os estudos daqueles que não podem estar presentes devido
às deficiências ou a problemas de saúde. Além disso, aulas online irão garantir aos
estudantes o direito a escolherem seus temas de aprendizagem, mesmo para os alunos em
áreas rurais que foram previamente privadas deste direito, devido à falta de professores
(JANG, 2014).
A Smart Education significa que a educação é autodirigida, motivada, adaptada,
recursos enriquecidos e envolvidos em tecnologia. O significado de motivada destaca a
forma como o aluno é incentivado a ter interesse em aprender. Enfatiza os métodos de
3298
ensino e aprendizagem que promovem a resolução criativa de problemas e está centrada no
processo de avaliação individualizado. As experiências de aprendizagem dos estudantes
serão transformadas: de tipicamente baseadas no livro didático para baseadas na experiência
dos alunos. O termo adaptado significa a forma da educação por meio de um sistema
educacional personalizado, um ensino e sistema de aprendizagem personalizado. Fortalece
a flexibilidade do sistema e facilita a aprendizagem personalizada, em conexão com
interesses pessoais e futuras aspirações de carreira. Também ajuda as escolas a evoluírem de
um lugar de entrega de conhecimento para a um lugar que apoie a aprendizagem
personalizada de acordo com os níveis e aptidões dos estudantes (JANG, 2014).
O serviço de aprendizagem nas nuvens oferece acesso gratuito a ricos conteúdos
desenvolvidos por instituições públicas e privadas e indivíduos envolvidos com a educação.
Expande a utilização conjunta de recursos de aprendizagem interno e externo, e promove a
aprendizagem colaborativa através da entrega de conteúdos em plataformas nas nuvens.
Estas plataformas permitem que os estudantes aprendam a qualquer hora e em qualquer
lugar, e por meio da construção de um ambiente educacional que incentiva a aprendizagem
centrada no estudante, que contam com diversos métodos de aprendizagem sob medida e
auto selecionadas de acordo com o interesse dos estudantes. A Smart Education é a
aplicação institucionalizada das tecnologias da informação e comunicação à educação como
um meio essencial de um futuro paradigma educacional para o século 21 (JANG, 2014).
No Brasil as experiências com o uso das tecnologias de informação e comunicação e
dos livros didáticos digitais são muito recentes. Em 2012, o Ministério da Educação
comprou cerca de 382 mil tablets para atender aos professores do ensino médio, com
investimento de 117 milhões de reais.
Em 2014 a Amazon, empresa multinacional de comércio eletrônico começou uma
parceria com o Ministério da Educação, a partir do lançamento de um edital de convocação,
no ano de 2012. Que tinha como objeto a constituição de acordos de cooperação entre o
Fundo Nacional de Desenvolvimento da Educação (FNDE) e instituições interessadas a
participar da estruturação e a operação de serviço virtual. A fim de disponibilizar obras
digitais e outros conteúdos educacionais digitais para professores, estudantes e outros
usuários da rede pública de ensino brasileira. Com ênfase nos títulos do Programa Nacional
do Livro Didático (PNLD), do Programa Nacional Biblioteca da Escola (PNBE) e de outras
ações governamentais na área de material escolar (BRASIL, 2012).
No contrato firmado, a Amazon responsabiliza-se em converter, gerenciar e
distribuir livros didáticos digitais para professores, usando a tecnologia própria
3299
Whispercast. Este termo de cooperação com o governo tem vigência até fevereiro de 2015,
até o momento (junho de 2014), mais de 40 milhões de exemplares foram convertidos e
hospedados na plataforma da Amazon.
Cerca de 200 títulos de livros serão disponibilizados para professores de escolas
públicas por meio do aplicativo gratuito de leitura Kindle, instalados em tablets com o
sistema operacional Android fornecidos pelo governo brasileiro. Embora a tecnologia
Whispercast utilize o formato Kindle, compatível com o leitor digital da Amazon, ela
também roda em PCs e em tablets com sistemas operacionais Android ou IOS que tenham
instalado o aplicativo Kindle.
Nos Estados Unidos, a tecnologia Whispercast já é usada em diversas escolas como
ponto de acesso para compra e distribuição de livros e documentos para programas
educacionais. Pelo aplicativo é possível ler, destacar, fazer anotações e utilizar o dicionário
diretamente nos livros didáticos digitais, mesmo quando os tablets não estão conectados à
Internet.
Mesmo se tratando de um importante começo, esta parceria mesmo em estágio
inicial já apresenta algumas limitações e questões que requerem detalhamento e
aperfeiçoamento, a saber.
O tamanho do acervo disponível muito restritivo, os livros didáticos digitais como
elementos complementares aos demais recursos didáticos necessitam possibilitar acesso à
quantidade de conteúdo diferente dos conteúdos dos livros didáticos impressos, para assim,
realizar sua finalidade.
O prazo de dois anos de parceria pode-se considerar muito pequeno, qualquer
empreendimento de grande porte, como é este caso, necessita de um tempo maior, para
implementá-lo, consolidá-lo, aperfeiçoá-lo e para atender as demandas que irão surgir.
A tecnologia utilizada restringe o uso dos livros didáticos digitais ao app do Kindle
da Amazon. O uso de software proprietário exige análise sobre: custo de manutenção,
dependência do desenvolvedor, perda da capacidade de extensibilidade (dados e
dispositivos) de interoperabilidade com outros dispositivos e tecnologias, reduzindo as
barreiras dentro do ambiente de aprendizagem e em casa.
Outra questão é a interface de aprendizagem pouco amigável, e os recursos de
interação limitados. Existem diversos leitores de PDF que permitem fazer exatamente a
mesma coisa. Ou seja, essa não é uma tecnologia específica do Kindle. Não é nem mesmo
uma tecnologia exclusiva de e-book.
3300
Problemas
relacionados
à
privacidade,
neste
contrato,
o
governo
está
disponibilizando uma enorme base de dados de usuários para a empresa privada, a custo
zero. E ainda forçando as pessoas a assinarem esse serviço, caso contrário elas não terão
acesso aos conteúdos dos livros.
Mesmo que envolva apenas livros didáticos, a aliança com a Amazon representa
uma abertura do governo nacional para a adoção de tecnologias estrangeiras na nuvem,
hospedando conteúdos em data centers fora do território nacional e o uso de software
proprietário. Isso fere alguns princípios de preservação de conteúdos digitais em longo
prazo e de interoperabilidade com outras plataformas tecnológicas.
4 CONSIDERAÇÕES
Percebe-se que o uso dos livros didáticos digitais em ambiente computacionais nas
nuvens se encontra em diferentes estágios entre os países estudados. No entanto, pode-se
inferir que a ampliação de seu uso seja uma tendência, sobretudo, considerando-se: o
aumento do número de conexões com a internet e dos dispositivos eletrônicos móveis, as
novas possibilidades de uso das tecnologias da informação e comunicação com o
desenvolvimento de novos produtos, conteúdos e aplicativos com foco na educação poderão
intensificar ainda mais a mobile learning.
O uso de recursos educacionais digitais exige a participação mais ativa dos alunos,
proporciona a interação através da cooperação e compartilhamento de informações e
conteúdos. Exige também, do corpo docente e dos funcionários treinamento e formação
para o uso correto e aproveitamento de todas as potencialidades dos recursos fornecidos por
esta tecnologia.
Os benefícios são enormes, alguns são ainda desconhecidos e outros estão em fase
de desenvolvimento. Conforme, o framework já apresentado destaca-se: a capacidade dos
dispositivos de aprendizagem ser personalizáveis e interativos; a contribuição na função de
gestão de aprendizagem e de ferramenta de avaliação; as melhorias que podem promover a
saúde dos alunos; o auxílio no processo de gestão escolar com as facilidades
proporcionadas; as economias de custos financeiros as escolas e aos pais; e a colaboração
em garantir a sustentabilidade dos recursos naturais.
A apresentação das experiências do uso dos livros didáticos digitais em países como
Estados Unidos e Coreia do Sul que se encontram em estágios mais avançados na utilização
desses recursos corrobora na medida em que podem direcionar melhores ações de etapas já
experimentadas para outros países. Contribuindo assim, no sentido de poder pular etapas, já
testadas e aprimoradas no processo de implantação.
3301
Ficou evidente, no estudo desses dois países, primeiramente, a necessidade de criar
uma infraestrutura de rede de computadores com acesso a Internet nas escolas e nas
comunidades em torno desta, possibilitando assim, maior conectividade. Importante
também, ter a noção do nível de habilidade e naturalidade no uso das ferramentas
tecnológicas por parte dos alunos, ditos “nativos digitais” e do corpo docente das escolas.
Além disso, é necessária uma infraestrutura de mesas e cadeiras adequadas e rede de
energia elétrica confiável, com tomadas de energia suficientes em todas as salas de aulas.
Aliado as políticas públicas de aquisição de recursos educacionais em formato digital.
No Brasil as experiências com o uso dos livros didáticos digitais, na rede pública,
estão em estágio embrionário, necessitando de uma articulação mais realista, entre as
infraestruturas (energia elétrica, rede de computadores e Internet de banda larga) existentes
nas escolas e o que está estabelecido nos planos de aquisição de conteúdo educacionais
digitais, como o edital público que constituiu uma parceira com a empresa norte-americana
Amazon.
Por ser um fenômeno hodierno e em fase de aperfeiçoamento o uso dos livros
didáticos digitais nas escolas enfrenta alguns entraves que necessita mais aprofundamento,
alguns de viés tecnológico (plataformas tecnológicas e uso de softwares proprietários),
outras de questões políticas (decisão sobre o uso de acesso aberto e plataformas abertas) e
outros de natureza legal (como, direitos autorais e o DRM), dentre outras.
O uso de livros didáticos digitais é uma temática que está em pleno
desenvolvimento,
sendo
assim,
são
necessários
diversos
outros
estudos
para
aprofundamento do debate e para o aperfeiçoamento desses recursos. Destaca-se a
necessidade de se verificar se o uso dos livros didáticos digitais pode melhorar o
desempenho dos alunos. Importante estudar, qual será o papel, as competências e
habilidades necessárias do professor na sala de aula com a utilização dos livros didáticos
digitais. E a necessidade de desenvolvimento de novas metodologias de ensino utilizando
estes recursos.
Ao final, é importante ressaltar que os recursos tecnológicos não irão substituir o
professor, e sim, apoia-lo no processo de ensino e aprendizagem, permitindo que os
professores socializem seus conhecimentos para um grupo maior de alunos que tenham
acesso a essas plataformas educativas nas nuvens, como já esta demonstrado na experiência
do OpenCourseWare do MIT por exemplo.
Conclui-se, que o aperfeiçoamento do uso de todos os recursos educacionais
digitais, não somente os livros didáticos digitais requerem certa urgência, uma vez que,
3302
estes recursos poderão contribuir para a formação de uma geração mais bem preparada
intelectualmente e como cidadão. E para conviver numa sociedade globalizada e com altos
níveis de competitividade e com enormes desafios sociais a ser enfrentado.
REFERÊNCIAS
ASH, Katie. Publishers turn to cloud computing to offer digital content. Education Week,
Bethesda, v. 5, n. 1, p. 34-36, 2011.
BRASIL. Ministério da Educação. Fundo Nacional e Desenvolvimento da Educação. Edital
de convocação 03/2012 – CGPLI. Brasília, DF: DOU, 2012. Disponível em:
<http://www.fnde.gov.br/arquivos/category/165-editais?download=7624:edital-deconvocacao-digital>. Acesso em: 30 abr. 2014.
EMBONG, Abd Mutalib; et al. E-books as textbooks in the classroom. Procedia - Social
and Behavioral Sciences, Louisville, v. 47, p. 1802 – 1809, 2012.
FEDERAL COMMUNICATIONS COMMISSION. Charting our transition to
“inter ctive digit l textbooks”. Washington, DC: FFC, 2012. Disponível em:
<http://transition.fcc.gov/Daily_Releases/Daily_Business/2012/db0329/DOC313315A3.pdf>. Acesso em: 30 abr. 2014.
FEDERAL COMMUNICATIONS COMMISSION. Digital textbook playbook: the digital
textbook collaborative. Washington, DC: FFC, 2012. Disponível em:
<http://www.fcc.gov/encyclopedia/digital-textbook-playbook>. Acesso em: 30 abr. 2014.
GSMA INTELLIGENCE. Definitive data and analysis for the mobile industry. Londres,
2014. Disponível em: <https://gsmaintelligence.com>. Acesso em: 2 jun. 2014.
GSMA. Mobile education landscape report. Londres, 2011. Disponível em:
<http://www.gsma.com/connectedliving/wpcontent/uploads/2012/03/landscape110811interactive.pdf>. Acesso em: 17 jul. 2014.
JANG, Sanghyun. Study on service models of digital textbooks in cloud computing
environment for SMART education. International Journal of u- and e- Service, Science
and Technology, Tasmânia, v. 7, n. 1, p.73-82, 2014.
JULA, Amin; et al. Cloud computing service composition: a systematic literature review.
Expert Systems with Applications, Shreveport, v. 41, p. 3.809-3.824, 2014.
JUNG, Sung-Moo. Leading future education: development of digital textbooks in Korea. In:
WORLD TEACHERS’ DAY IN THAILAND, 4., 2009, Bangkok; UNESCO-APEID
INTERNATIONAL CONFERENCE QUALITY INNOVATIONS FOR TEACHING AND
LEARNING, 12., 2009, Bangkok. Anais... Bangkok, Tailândia: 2009. 13p.
SOUZA, Francisco das Chagas de. Escrevendo e normalizando trabalhos acadêmicos:
um guia metodológico. Florianópolis, SC: Ed. da UFSC, 1997. 126p. (Série Didática).
UNESCO. The future of mobile learning: implications for policy makers and planners.
Paris: UNESCO, 2013. (UNESCO Working Paper Series on Mobile Learning).
3303
ESTUDOS BRASILEIROS SOBRE INDEXAÇÃO AUTOMÁTICA NO AMBITO DA
CIÊNCIA DA INFORMAÇÃO (1973-2012)
BRAZILIAN ESTUDIES ABOUT AUTOMATIC INDEXING IN INFORMATION SCIENCE
AREA (1973-2012)
Remi Correia Lapa
Renato Fernandes Correa
Resumo: Apresenta um panorama dos estudos sobre a Indexação Automática por meio do
mapeamento e análise da produção acadêmica e científica nacional da área de ciência da
informação no período de 1973 a 2012. Como objetivos específicos, procura coletar um
corpus de análise e caracterizar as publicações quanto aos objetivos e aspectos
metodológicos. A metodologia consiste em um estudo bibliográfico aprofundado de caráter
qualitativo e quantitativo, bem como análise de conteúdo da produção literária no Brasil a
respeito da indexação automática de textos escritos no idioma português, dentre livros,
artigos de periódicos científicos, anais publicados e literaturas cinzentas. Os principais
resultados encontrados foram: 35% dos trabalhos realizaram revisão bibliográfica, enquanto
65% investigaram a indexação automática por meio de fórmula, método ou sistema, dos
quais 23% realizaram proposição e aplicação, 20% a proposição, e 22% realizaram
aplicação; os sistemas como o objeto de estudo mais pesquisado, e a comparação com a
indexação manual como o método de avaliação mais usado; o texto completo como a
natureza do corpus mais pesquisado; o trabalho científico como a tipologia do corpus mais
estudada; a indexação semi-automática como procedimento mais aplicado na validação dos
termos; o processo de atribuição como o meio mais adotado para identificar os termos; o
texto não estruturado como a entrada de dados preferida nos sistemas; a linguagem natural
como a natureza da linguagem, os termos compostos como a natureza dos termos mais
pesquisados; a análise estatística como o método de seleção dos termos mais utilizado.
Concluímos que há uma tendência em estudos sobre a indexação automática por meio dos
sintagmas nominais e que com o uso de novas tecnologias procura-se desenvolver uma
identificação automática dos termos por meio da atribuição.
Palavras-chave: Indexação Automática. Indexação. Recuperação da Informação. Sistemas
de Recuperação da Informação. Ciência da Informação. Brasil
Abstract: This work presents an overview of studies about Automatic Indexing through the
mapping and analysis of brazilian scientific and academic production in information science
area over the period 1973-2012. Specific objectives, seeks to collect a corpus to analyze and
characterize the publications by observing its goals and methodological aspects. The
methodology consists of a detailed bibliographical study and contends analysis on literary
production in Brazil about the automatic indexing of texts written in Portuguese language.
The corpus of analysis for the realization of content analysis, consists of documents in the
Portuguese language, such as books, journal articles, proceedings and gray literature. The
most significant results show that : 35% of the publications performed a literature review ,
in relation to the researched systems, methods, and formulas of automatic indexation , 23%
made application and proposition, 20% made the proposition and 22% made application;
systems as the object of study more researched; the comparison with manual indexing as
the most used method of evaluation; the full text as the most researched corpus´nature;
scientific publication as the corpus´ typology most studied; semi-automatic indexing as the
more applied term of validation procedure; the attributing process as the more adopted to
identify terms; the unstructured text as data input preferred of systems; natural language as
the nature of indexing language, the compound term as the nature of terms most searched;
3304
statistical analysis as the method most used to term selection. We conclude that there is a
tendency in studies on automatic indexing by means of noun phrases and the use of new
technologies seeks to develop an automatic identification of terms by assigning.
Keywords: Automatic Indexing. Indexing. Information Retrieval. Information Retrieval
Systems. Information Science. Brazil.
1 INTRODUÇÃO
Neste artigo, abordamos a Indexação Automática como um processo circunscrito ao
campo da Ciência da Informação (CI), que investiga a geração, coleta, organização,
interpretação, armazenamento, recuperação, disseminação, transformação e uso da
informação, com ênfase particular, na aplicação de tecnologias modernas nestas atividades
(CAPURRO; HJØRLAND, 2007).
De acordo com Moraes (2002), os problemas relacionados com a recuperação da
informação tornaram-se de interesse para Hans Peter Luhn, especialista da IBM e pioneiro
na aplicação da análise estatística de vocabulário para executar uma indexação automática.
Luhn procurou soluções práticas e de baixo custo, o que o levou a utilização de máquinas
para resolvê-los, tornando-se um defensor da Indexação Automática (PALMQUIST, 1998,
tradução nossa).
Com a intenção de reverter os efeitos negativos causados pela produção de grandes
volumes de informações, e almejando obter a informação confiável, de fácil acesso, com
um tempo de resposta reduzido e com um custo acessível, o tratamento físico e de conteúdo
dos documentos assumem um papel fundamental, pois, analisam, traduzem e representam a
forma e o assunto dos documentos com a finalidade de auxiliar na recuperação de
informações (ALVES; CAFÉ, 2010).
Nesse sentido, segundo Fujita (2009, p. 22) “estudos vem sendo desenvolvidos
acerca da teoria da indexação, sua natureza, procedimentos, estruturas e características de
seu produto final, o índice”, visando melhor tratamento temático e recuperação da
informação.
Segundo Robredo (2005), existe uma preocupação em oferecer um acesso mais
rápido à literatura técnico-científica utilizando o computador no processamento de dados e
informações. Sua aplicação advém da necessidade em indexar grandes volumes de
informações, em um tempo curto para manter as bases de dados atualizadas, o que torna
inviável pensar na indexação manual (humana ou intelectual) como única forma de analisar
e codificar o conteúdo dos documentos (ROBREDO, 2005).
A problemática subjacente à este artigo está em descrever e analisar a produção
científica sobre a indexação automática no Brasil entre os anos 1973 e 2012.
3305
Destarte, esta pesquisa tem por objetivo geral apresentar o panorama da pesquisa
no âmbito da CI no Brasil referentes aos estudos sobre a Indexação Automática no período
1973 – 2012. Para tanto este artigo possui como objetivos específicos: levantar um corpus
contendo a produção brasileira da área da Ciência da Informação a respeito da indexação
automática entre os anos de 1973 a 2012; e analisar os objetivos e aspectos metodológicos
das publicações que compõem o corpus selecionado.
A justificativa para a realização de tal pesquisa está no valor da informação obtida
através da análise do conjunto de documentos selecionados, permitindo, deste modo,
distinguir as tendências e realizar projeções sobre futuras pesquisas.
2 INDEXAÇÃO AUTOMÁTICA NO BRASIL
A indexação automática pode ser definida como um conjunto de operações,
basicamente matemáticas, linguísticas, de programação, destinadas a selecionar termos
como elementos descritivos de um documento pelo processamento de seu conteúdo.
Na indexação automática por extração o processamento do conteúdo não é
permeado pela interpretação de terceiros, pois os termos significativos são extraídos do
texto e ordenados pela sua frequência de ocorrência (NASCIMENTO, 2008).
Outro tipo, é a indexação automática por atribuição, que segundo Lancaster (2004),
consiste numa representação temática por meio de termos selecionados de um vocabulário
controlado (tesauro ou lista alfabética), onde um programa de computador desenvolve para
cada termo a ser indexado um “perfil” de palavras ou expressões.
As primeiras propostas de indexação automática ocorreram nos anos 60, segundo
estudo desenvolvido por Cesarino e Pinto (1980), e eram totalmente baseadas em métodos
estatísticos de ocorrência de palavras.
No Brasil, segundo Vieira (1988b), a aplicação da indexação automática tem seu
início no final dos anos 60, com a utilização do programa KWIC (Keyword In Context) para
elaborar os índices das bibliografias especializadas publicados pelo Instituto Brasileiro de
Bibliografia e Documentação (IBBD), atual Instituto Brasileiro de Informação em Ciência e
Tecnologia (IBICT).
Na década de 70, as pesquisas de indexação automática em território nacional
ocorrem através de estudos individuais, realizados em cursos de pós-graduação,
concentrando-se na análise de frequência (VIEIRA, 1988b).
Nos anos de 1980 surgem os estudos baseados em referenciais linguísticos,
conjuntamente com uma abordagem estatística, como por exemplo, o estudo de Andreewski
e Ruas (1983) que trata da adaptação do sistema francês Systéme Syntaxique et Probabiliste
3306
d´Indexation et de Recherche d´Informaticos Textuelles (SPIRIT) para documentos em
língua portuguesa (GIL LEIVA, 1997).
O uso de referenciais lingüísticos, mais exatamente de critérios sintático-semânticos,
tal como a proposta de uso de sintagmas nominais como unidades de análise, estão
presentes nos trabalhos de alguns autores brasileiros a partir da década de 90
(KURAMOTO, 1995; SOUZA, 2006; BORGES; MACULAN; LIMA, 2008).
3 PROCEDIMENTOS METODOLÓGICOS
Este estudo formou-se por meio do mapeamento e da discussão da produção
acadêmica e científica sobre a Indexação Automática no campo da Ciência da Informação
no Brasil através de uma abordagem qualitativa e quantitativa.
O estudo desenvolveu-se como pesquisa exploratória, pois tem como finalidade
“proporcionar maior familiaridade com o problema, com vistas a torná-lo mais explícito ou
a construir hipóteses” (GIL, 2010, p. 27). Sendo assim, se propôs em realizar uma revisão
de literatura com a finalidade de analisar os diversos aspectos referentes ao tema estudado.
No que diz respeito aos procedimentos técnicos, se caracteriza como pesquisa
bibliográfica, pois se trata do levantamento de toda bibliografia nacional já publicada no
idioma português, seja no formato de livros, artigos de periódicos científicos, anais
publicados em congressos e seminários, e literaturas cinzentas (MARCONI; LAKATOS,
2010), obtida por meio de pesquisa nas bases de dados virtuais BRAPCI 50, Google
Acadêmico 51 e PERI52, e na biblioteca da UFPE, onde os documentos foram localizados
através das expressões de busca ‘indexação automática’, ‘automatização da indexação’ e
‘indexação semi-automática’.
Visando obter um panorama das pesquisas sobre o tema desenvolveu-se análise de
conteúdo em relação aos documentos do corpus levantado. O corpus constitui-se de 69
documentos, que foram categorizados quanto ao objetivo, objeto de investigação, nome do
sistema/método/fórmula, avaliação da indexação automática, natureza e tipologia do corpus
processado, validação e identificação dos termos, forma que ocorreu a entrada dos dados,
linguagem de indexação e método/processo de identificação/ponderação/seleção de termos.
4 RESULTADOS E DISCUSSÕES
4.1 Análise do objetivo dos documentos do corpus
50
51
52
http://www.brapci.ufpr.br
http://scholar.google.com.br/schhp?hl=pt-BR&tab=ws
http://bases.eci.ufmg.br/peri.htm
3307
De acordo com o GRÁFICO 1 observamos que 24 trabalhos (35%) realizaram uma
revisão bibliográfica.
GRÁFICO 1 – Objetivo dos documentos do corpus
Fonte: desenvolvido pelo autor.
São 14 os trabalhos que ‘propõem’ algum método, sistema ou fórmula de indexação
automática, correspondendo a 20% do total, os outros 31 trabalhos estão divididos entre
aqueles que ‘aplicam’, 15 trabalhos (21%), e os que ‘aplicam e propõem’, 16 trabalhos
(23%), algum sistema, método ou fórmula.
Procurando-se identificar como o tema da indexação automática é abordado nos
trabalhos classificados na categoria Revisão Bibliográfica constatamos que a maioria dos
trabalhos apresenta os fundamentos teóricos da indexação automática, sua evolução
histórica e desenvolvimento teórico metodológico; um segundo grupo se concentra em
abordar o embasamento filosófico e conceitual subjacente a Web Semântica e suas
contribuições na automação da indexação na internet, por meio de motores de busca; o
terceiro grupo é formado por trabalhos que discutem as vantagens e desvantagens do uso da
indexação automática em comparação com a manual.
É providencial destacar três trabalhos individuais, pois são pontos de vista poucos
explorados que podem estar surgindo para suprimir uma lacuna e representar base para o
aparecimento de outras pesquisas: o primeiro de Guedes e Borschiver (2005), que apresenta
a aplicação das leis e princípios da bibliometria, com foco nas palavras, na indexação
automática; outro de Barreto (2007), que aborda a aplicação da indexação automática em
vídeos; e Kochani, Boccato e Rubi (2011), que mencionam o desenvolvimento de uma
política de indexação em sistemas automatizados.
3308
GRÁFICO 2 – Distribuição dos trabalhos que realizaram proposição
Fonte: desenvolvido pelo autor.
Conforme podemos averiguar no GRÁFICO 2, 14 trabalhos foram classificados no
grupo dos que somente propõem algum método, sistema ou fórmula. Destes, nenhum
trabalho propôs o uso de fórmula, seis trabalhos (43%), apresentaram a proposta de utilizar
algum método, enquanto oito (57%) propuseram o uso de algum sistema de indexação
automática.
Analisando trabalhos classificados na categoria proposição, verificamos que em
relação ao sistema, o mais proposto foi o AUTOMINDEX/II; enquanto a extração dos
Sintagmas Nominais foi o método mais proposto.
Dos 15 trabalhos (22%) que foram classificados como tendo o objetivo de somente
aplicar fórmula, sistema ou método de indexação automática, dois (13%) aplicam fórmula;
seis aplicam métodos (40%) e sete aplicam sistema (47%), ressaltados no GRÁFICO 3.
GRÁFICO 3 – Distribuição dos trabalhos que realizaram aplicação
Fonte: desenvolvido pelo autor.
Levando em conta a aplicação, as fórmulas bibliométricas aplicadas foram as leis de
Zipf e o ponto T de Goffman, em relação aos sistemas os mais aplicados foram o
AUTOMINDEX/II e o SISA, já o método baseado na frequência de ocorrência foi o mais
aplicado.
O GRÁFICO 4 ilustra a distribuição dos 16 trabalhos que realizam proposições e
aplicações de fórmula, sistema ou método de indexação automática, onde um (6%) propõe e
3309
aplica uma fórmula matemática; cinco (31%) estão relacionados com os métodos; e 10
(63%) propõem e aplicam sistemas de indexação automática.
GRÁFICO 4 – Distribuição dos trabalhos que realizaram proposição e aplicação
Fonte: desenvolvido pelo autor.
Em razão dos trabalhos que propõem e aplicam constatou-se um único trabalho
referente à adaptação da fórmula de transição de Goffman, no que tange aos sistemas o
PRECIS e o OGMA foram os mais propostos e aplicados enquanto aos métodos, todos
fizeram menção aos Sintagmas Nominais.
4.2 Nome Sistema/Método/Fórmula
As fórmulas localizadas nas pesquisas são as Leis de Zipf e o Ponto T de Goffman,
ambas consistem em fórmulas bibliométricas relacionadas com a frequência de ocorrência
de palavras em textos, e aparecem como assunto em apenas três trabalhos.
Foram constatados 12 sistemas de indexação automática durante a análise dos
trabalhos, e a relação entre o nome do sistema e sua frequência de ocorrência nos trabalhos
está representado no GRÁFICO 5, de onde averiguamos que os três sistemas mais
pesquisados para representar automaticamente os descritores aparecem empatados com
quatro trabalhos (17%) cada um, são eles: o sistema SISA, o PRECIS e o
AUTOMINDEX/II. Logo em seguida aparece o OGMA, sendo pesquisado por três
trabalhos (13%).
A quinta posição pertence a um sistema nomeado de ‘Programa experimental’,
entretanto a verificação de um fato irá modificar este resultado, pois se constatou que este
sistema experimental, registrado nos trabalhos de Haller (1983, 1985), foi desenvolvido em
um computador Burroughs 6700 do CPD da UnB. Em Vieira (1988b), comenta-se que foi
utilizado o sistema BIB/DIÁLOGO, implementado no Departamento de Biblioteconomia
da UnB, para computadores Burroughs B6700, e terminais Burroughs, modelo TVA
800/10. Desta forma, o sistema outrora classificado como ‘programa experimental’ trata-se
do sistema BIB/DIÁLOGO. E para finalizar este desfecho, Robredo (1991) explica que o
sistema AUTOMINDEX/II, constitui-se num subsistema do sistema BIB/DIÁLOGO, o
3310
qual já no início dos anos 80 é utilizado em estudos desenvolvidos por Robredo, então
professor titular do Departamento de Biblioteconomia da Faculdade de Ciências Sociais
Aplicadas da UnB.
Portanto, considerando que os sistemas ‘programa experimental’, BIB/DIÁLOGO e
AUTOMINDEX/II fazem parte do mesmo sistema, e sendo classificados pelo sistema mais
geral, o BIB/DIÁLOGO, este passa a ser o mais pesquisado com sete trabalhos.
Cada um dos seis sistemas restantes é proposto, aplicado, ou proposto e aplicado por
apenas um trabalho. Desta forma os sistemas SintagMed, Zstation, SRIAC, SPIRIT,
MISTRAL e SiRILiCo, representando 60% dos sistemas observados, não apresentam
continuidade nas pesquisas e foram investigados por 25% dos trabalhos, enquanto os
sistemas SISA, PRECIS, BIB/DIALOGO (programa experimental e AUTOMINDEX/II) e
OGMA bancando os outros 40% foram pesquisados por 75% dos trabalhos, o que
demonstra um certo prosseguimento nas pesquisas sobre estes sistemas.
GRÁFICO 5 – Frequência de ocorrência dos sistemas nos documentos do corpus
Fonte: desenvolvido pelo autor
Avaliando os resultados referentes ao GRÁFICO 6 obtemos que o método mais
pesquisado de indexação automática foram os sintagmas nominais, com 8 trabalhos (44%),
dividido entre um trabalho que aplica; três que propuseram e aplicaram; e quatro que
propuseram este método. Empatados na segunda colocação com três trabalhos (17%) cada
um estão os métodos que utilizam o vocabulário controlado e a frequência de ocorrência.
Este com três trabalhos que aplicam, e aquele com um trabalho que aplica e dois trabalhos
que propõem e aplicam o método. Os demais métodos apareceram uma vez, são eles:
função de crença, frequência de co-ocorrência, estatístico-morfológico e UTC.
3311
GRÁFICO 6 – Frequência de ocorrência dos métodos nos documentos do corpus
Fonte: desenvolvido pelo autor
4.3 A avaliação da indexação automática
De acordo com os dados contidos no GRÁFICO 7, 24 trabalhos (53%) avaliaram
sistemas, destes seis aplicaram, oito propuseram e 10 propuseram e aplicaram; 18 trabalhos
(40%) avaliaram métodos, sendo sete os que aplicaram, seis propuseram e cinco
propuseram e aplicaram; e três trabalhos (7%) avaliaram fórmulas, onde dois aplicaram e
um propôs e aplicou.
GRÁFICO 7 – Distribuição do objeto de avaliação
Fonte: desenvolvido pelo autor.
Para a grande maioria dos autores o método escolhido para avaliar suas pesquisas
sobre o processo automático da indexação foi realizando uma comparação dos resultados
obtidos pelo processo automático com os obtidos através do método intelectual de
indexação, correspondendo a 27 dos trabalhos (71%), conforme GRÁFICO 8. Não foi
possível identificar em dez trabalhos qual o método de avaliação empregado, mas nos 35
documentos analisados ficou evidente que a maioria optou como método de avaliação a
comparação com a indexação manual.
3312
GRÁFICO 8 – Frequência de ocorrência dos métodos de avaliação
Fonte: desenvolvido pelo autor.
Em segundo lugar, encontra-se o método de avaliar através da participação do
usuário na comparação de índices ou Sistemas de Recuperação da Informação, com seis
trabalhos (14%). Neste processo geralmente se aplica aos usuários, questionários e
entrevistas estruturadas ou se avalia através de uma busca experimental comparada e
simulada, com o objetivo de identificar as dificuldades e/ou facilidades através da reação
dos usuários na utilização do índice. Esta avaliação pode ocorrer sobre dois pontos de vista,
o do sistema e o do usuário.
Dois trabalhos (11%) utilizam o método de classificação automática, que aplicam
algoritmos de agrupamento e classificação para apresentar um valor percentual indicando
quantos documentos foram classificados corretamente.
Um trabalho (1%) compara os resultados dos termos obtidos dos documentos
através das modificações das fórmulas bibliométricas, onde o autor é quem fica encarregado
de analisar se os termos obtidos são satisfatórios.
4.4 Natureza do corpus
Quanto à natureza do corpus, constatou-se que ocorreu uma preferência em se
realizar pesquisas quanto à indexação automática do texto completo dos documentos, foram
29 trabalhos (69%). Não foi possível identificar em três trabalhos qual a natureza
empregada.
3313
GRÁFICO 9 – Natureza do corpus
Fonte: desenvolvido pelo autor.
Os demais 31% estão divididos entre sete trabalhos que optaram utilizar os resumos
como seu corpus de pesquisa, quatro trabalhos que utilizaram como corpus de análise os
títulos. Tanto os verbetes quanto as citações constam como corpus de investigação em
apenas um trabalho, cada. Os resultados estão ressaltados visualmente no GRÁFICO 9.
4.5 Tipologia do corpus
Observa-se que a distribuição referente à tipologia do corpus se comporta de acordo
com o padrão das distribuições bibliométricas em geral: “poucos com muito e muitos com
pouco”. Assim, no GRÁFICO 10 podemos constatar que poucas tipologias ocorreram
muitas vezes, enquanto diversas tipologias ocorreram poucas vezes.
Os dados ilustrados no GRÁFICO 10 ajudam a compreender qual foi o
comportamento da tipologia do corpus pesquisado nos trabalhos analisados. Verifica-se que
a tipologia mais pesquisada com 27 trabalhos (66%) foram os trabalhos científicos, o que
pode ser explicado por ser este tipo de material que mais interessa as instituições que
normalmente desenvolvem e/ou financiam estas pesquisas, isto é, as Universidades
Públicas, e por este motivo a importância da natureza do corpus incide sobre os trabalhos
científicos que normalmente são produzidos na própria instituição. Não foi possível
identificar em quatro trabalhos qual a tipologia do corpus.
3314
GRÁFICO 10 – Tipologia do corpus
Fonte: desenvolvido pelo autor.
As demais tipologias, que juntas somam 14 trabalhos (34%), quase metade em
relação à tipologia mais estudada, acabam refletindo realidades específicas caracterizando
necessidades isoladas.
4.6 Validação dos termos
Analisando o tipo de indexação que os trabalhos aplicaram ou propuseram para
validar os termos de suas pesquisas, observamos através do GRÁFICO 11 que em primeiro
lugar, com 21 trabalhos (47%), estão aqueles que empregaram a indexação semiautomática, seguida pelos trabalhos que empregaram a indexação automática, com 15
trabalhos (33%), e um pouco atrás, se encontram seis trabalhos (13%) assistidos pelo
computador.
Dois trabalhos (4%) declaram que a validação dos termos aconteceu tanto através de
uma indexação semi-automática, quanto automática. E um trabalho (2%) que a validação
ocorreu através dos três critérios de análise.
GRÁFICO 11 – Validação dos termos
Fonte: desenvolvido pelo autor
3315
4.7 Identificação dos termos
O GRÁFICO 12 demonstra que o processo de identificação foi realizado em 22
trabalhos (49%) por meio da extração, enquanto em 23 (53%) por meio da atribuição.
Esta pequena diferença pode ser explicada, pois apesar da dificuldade do
computador em realizar o processo de obter um termo através da atribuição, a chegada de
novas tecnologias e de pesquisas sobre aplicação de tesauros e vocabulários controlados
motivou pesquisas sobre a atribuição.
GRÁFICO 12 – Identificação dos termos
Fonte: desenvolvido pelo autor.
4.8 Forma que ocorreu a entrada dos dados
O GRÁFICO 13 ilustra como ocorreu à entrada dos dados nos sistemas, métodos e
fórmulas investigados nos trabalhos que compõem o corpus deste artigo. Destes, 22 (49%)
realizaram a entrada dos dados através de um texto não estruturado, 20 (44%)
correspondem aos trabalhos que estruturaram o texto de alguma forma antes da inserção dos
dados para análise, dois (aproximadamente 4%) foram os que alegaram trabalhar com a
entrada de dados de forma não estruturada e em outro momento com o texto estruturado, e
um trabalho (2%) cita utilizar a marcação nos textos.
GRÁFICO 13– Frequência de ocorrência da forma como ocorreu a entrada de dados
Fonte: desenvolvido pelo autor.
3316
4.9 Linguagem de indexação
Nesta subseção procurou-se descrever os trabalhos quanto a natureza da linguagem
de indexação (natural ou controlada) e dos termos (palavras isoladas ou termos compostos).
GRÁFICO 14 – Natureza da linguagem
Fonte: desenvolvido pelo autor.
Quanto à natureza da linguagem notamos que ocorreu uma predominância pela
linguagem controlada com 25 trabalhos (56%) em decorrência dos 20 trabalhos (44%)
atribuídos à linguagem natural, visualizados no GRÁFICO 14.
Os dados relacionados aos termos estão ilustrados no GRÁFICO 15, que ressalta a
superioridade numérica da extração de termos compostos com 29 trabalhos (64%) em
relação à escolha apenas por palavras isoladas com 16 trabalhos (36%).
GRÁFICO 15 – Natureza dos termos
Fonte: desenvolvido pelo autor.
4.10 Abordagem utilizada na identificação / ponderação / seleção de termos
Quanto a abordagem ou tipo de técnicas utilizadas para identificar, ponderar ou
selecionar os termos utilizados na indexação automática (em um total de 45 documentos
que propuseram, aplicaram ou propuseram e aplicaram sistema/método/fórmula) foram
observados quanto ao uso da análise estatística, análise linguística, aprendizado de máquina
e representação do conhecimento, sendo classificados nas categorias e mensurados quanto à
frequência em que apareceram nos trabalhos.
3317
O resultado pode ser observado no GRÁFICO 16, onde o método mais pesquisado
foi a análise estatística com 34 trabalhos (35%), o segundo método foi a análise linguística,
aparecendo em 29 dos trabalhos (30%), a representação do conhecimento está em 25
trabalhos (26%), enquanto o aprendizado de máquina condiz com oito trabalhos (9%).
GRÁFICO 16 – Frequência de ocorrência do método/processo de
identificação/ponderação/seleção de termos
Fonte: desenvolvido pelo autor.
5 CONSIDERAÇÕES FINAIS
Fundamentados nos resultados da análise de conteúdo dos documentos do corpus
desta pesquisa, observamos que as categorias analisadas nos objetivos apresentaram
percentuais próximos. Além disso, percebemos que a maior parte dos trabalhos
classificados como revisão bibliográfica realiza uma abordagem da história da indexação
automática, apontando seus fundamentos teóricos e evolução dos métodos.
Podemos concluir que os sintagmas nominais foram os métodos mais investigados.
Em relação aos sistemas de indexação automática, quatro se destacam: o BIB/DIALOGO
(incluindo o AUTOMINDEX), o SISA, o PRECIS e o OGMA.
Verificamos que a grande concentração dos trabalhos utilizou como método de
avaliação a comparação com a indexação manual. Dessa forma, eles procuram avaliar se a
implantação do sistema automático trará benefícios, obtendo resultados equivalentes em
menos tempo.
Quanto à natureza e a tipologia do corpus, identificamos que a preocupação da
maioria dos autores está concentrada em indexar o texto completo de trabalhos científicos.
Analisando o tipo de validação dos termos, percebemos a preferência pela aplicação
da indexação semi-automática. O que pode ser justificado pelo fato dos processos
totalmente automáticos ainda serem falhos e apresentarem limitações tecnológicas.
Entretanto, a diferença em relação ao processo automático, na segunda posição, não é muito
3318
grande, podendo ser interpretada como um esforço no desenvolvimento de uma indexação
automática de qualidade.
Com relação à pequena diferença existente entre os trabalhos que pesquisaram a
identificação dos termos por meio da extração (47%) e os que optaram pelo da atribuição
(53%), há uma explicação provável. É que a chegada de novas tecnologias e de pesquisas
sobre aplicação de tesauros e vocabulários controlados motivaram pesquisas sobre a
atribuição, apesar da dificuldade em fazer com que o computador execute o processo de
obter um termo através da atribuição.
Já a entrada dos dados apresentou um empate técnico entre textos não estruturados
em relação ao texto estruturado. Em relação à linguagem de indexação de indexação, foi
observada tanto a natureza da linguagem, que demonstrou uma preferência dos trabalhos
pela pesquisa com a linguagem controlada, quanto a natureza dos termos, no qual a
primazia encontra-se no estudo com termos compostos.
Quanto à categoria dos tipos de métodos de identificação, ponderação e seleção dos
termos, chegamos à constatação de que o tipo de método mais pesquisado foi a análise
estatística representando que uma grande parte dos trabalhos recorreram a, um ou mais dos
seguintes processos: radicalização, eliminação de stopwords, análise de posição de
ocorrência (localização), análise de frequência de ocorrência, análise de co-ocorrência, peso
numérico, dicionário de raízes e/ou matriz binária.
O movimento ininterrupto da ciência continuará incentivando os pesquisadores a
continuarem produzindo novas pesquisas. Consequentemente, eles identificarão e
explicitarão outros caminhos (ou mesmo aqueles já trilhados, mas sobre uma ótica
diferente), para que se chegue a um modelo automático de indexação de termos com
qualidade igual ou superior a realizada pelo especialista humano quando realizam a mesma
tarefa.
Em vista disso, este trabalho aponta trabalhos futuros na área da Ciência da
Informação, sobre a indexação automática, que dariam continuidade ao trabalho
desenvolvido nesta pesquisa.
Como sugestão para trabalhos futuros, apontamos:
Investigar a análise de citação por permitir identificar características e mapear a
comunicação científica;
Realizar uma análise da produção internacional sobre a indexação automática;
Mapear e discutir a produção acadêmica sobre a indexação automática em diversos
campos do conhecimento (ciência da informação, ciência da computação,
3319
linguística), diferentes fontes de informação, épocas e lugares, elaborando seu
Estado da Arte.
REFERÊNCIAS
ALVES, J. C.; CAFÉ, L. M. A. Análise focada em metadados sob a luz do padrão MTDBR. Em Questão, Porto Alegre, v. 16, n. 2, p. 179-202, jul./dez. 2010.
ANDREEWSKI, A.; RUAS, V. Indexação automática baseada em métodos linguísticos e
estatísticos e sua aplicabilidade a língua portuguesa, Ciência da Informação, Brasília, v.
12, n. 1, p. 61-73, 1983.
BARRETO, J. S. Desafios e avanços na recuperação automática da informação audiovisual,
Ciência da Informação, Brasília, v. 36, n. 3, p. 17-28, set./dez. 2007.
BORGES, G. S. B.; MACULAN, B. C. M. S.; LIMA, G. A. B. O. Indexação automática e
semântica: estudo de análise do conteúdo de teses e dissertações. Informação &
Sociedade: Estudos, João Pessoa, v.18, n.2, p. 181-193, maio/ago. 2008.
CAPURRO, R.; HJØRLAND, B. O conceito de informação. Perspectivas em Ciência da
Informação, v. 12, n. 1, p. 148-207, jan./abr. 2007.
CESARINO, M. A. N.; PINTO, M. C. M. F. Análise de assunto, Revista de
Biblioteconomia de Brasília, Brasília, v. 8, n. 1, p. 254-263, p. 32-43, jan./jun. 1980.
FUJITA, Mariângela Spotti Lopes (Org.). A indexação de livros: a percepção de
catalogadores e usuários de bibliotecas universitárias. Um estudo de observação do
contexto sociocognitivo com protocolos verbais. São Paulo: Cultura Acadêmica, 2009.
GIL, A. C. Como elaborar projetos de pesquisa. 5. ed. São Paulo: Atlas, 2010.
GIL LEIVA, I. La automatización de la indización, propuesta teórico-metodológica:
aplicación al área de Biblioteconomía y Documentación.1997. 268f. Tese – Universidad de
Murcia, Murcia, España, 1997.
GUEDES, V.; BORSCHIVER, S. Bibliometria: uma ferramenta estatística para a gestão da
informação e do conhecimento, em sistemas de informação, de comunicação e de avaliação
científica e tecnológica. In: ENCONTRO NACIONAL DE CIÊNCIA DA INFORMAÇÃO,
6., 2005, Salvador. Anais... Salvador: ICI/UFBA, 2005.
KOCHANI, A. P.; BOCCATO, V. R. C.; RUBI, M. P. Política de indexação para sistemas
automatizados de coordenadorias de comunicação em ambientes universitários. In:
CONGRESSO BRASILEIRO DE BIBLIOTECONOMIA, DOCUMENTAÇÃO E
CIÊNCIA DA INFORMAÇÃO, 24., 2011, Maceió. Anais... São Paulo: FEBAB, 2011.
KURAMOTO, H. Uma abordagem alternativa para o tratamento e a recuperação de
informação textual : os sintagmas nominais, Ciência da Informação, Brasília, v. 25, n. 2,
p. 1-18, 1995.
LANCASTER, F. W. Indexação e resumos: teoria e prática. 2. ed. ver. atual. Brasília:
Briquet de. Lemos, 2004.
3320
MARCONI, M. A.; LAKATOS, E. M. Metodologia do trabalho científico:
procedimentos básicos, pesquisa bibliográfica, projeto e relatório, publicações e trabalhos
científicos. 7. ed., 5. reimpr. São Paulo: Atlas, 2010.
MORAES, A. F. de. Os pioneiros da ciência da informação nos EUA. Informação &
Sociedade: estudos, João Pessoa, v. 12, n. 2, 2002.
NASCIMENTO, G. F. C. L. Folksonomia como estratégia de indexação dos
bibliotecários no Del.icio.us. 2008. 104f. Dissertação (Mestrado em Ciência da
Informação) – Programa de Pós-Graduação em Ciência da Informação, Universidade
Federal da Paraíba, João Pessoa, 2008.
PALMQUIST, R. A. Class lecture notes: Luhn and automatic indexing – references to the
early years of automatic indexing and information retrieval. Organizing and providing acess
to information – LIS 391D.2 – Spring, 1998.
ROBREDO, J. Documentação de hoje e de amanhã. 4. ed. rev. ampl. Brasília, DF: Ed.
Do Autor, 2005.
SOUZA, R. R. Uma proposta de metodologia para indexação automática utilizando
sintagmas nominais. Enc. Bibli: R. Eletr. Bibliotecon. Ci. Inf., Florianópolis, n. esp.,
p.42-59, 1. Sem. 2006.
VIEIRA, S. B. Indexação automática e manual: revisão de literatura. Ci. Inf., Brasília, v.
17, n. 1, p. 43-57, jan./jun. 1988.
3321
DESENVOLVENDO UMA PUBLICAÇÃO CIENTÍFICA AMPLIADA NA
PLATAFORMA E-QUILT
DEVELOPMENT OF AN ENHANCED SCIENTIFIC PUBLICATION IN THE E-QUILT
PLATFORM
Adriana Carla Silva de Oliveira
Guilherme Ataíde Dias
Mariana Cantisani
Resumo: A pesquisa aborda o atual cenário da comunicação científica apresentando uma
nova modalidade de publicação científica denominada Enhanced Publication. Esse tipo de
publicação é uma inovação científica com possibilidades de convergência, conectividade,
compartilhamento de dados e colaboração entre pesquisadores. Discussões se dão também
em torno das lacunas da Propriedade Intelectual e das Tecnologias Digitais da Informação e
Comunicação. Nessa perspectiva, esta pesquisa traz como objetivo geral levantar padrões
de estruturação de metadados adotados em Enhanced Publication para o desenvolvimento
de um protótipo de artigo científico com características ampliadas. Adotou-se o método
quadripolar constituído de 4 (quatro) polos: epistemológico, teórico, morfológico e técnico,
sendo a abordagem de caráter exploratório e aplicado. Na condução da pesquisa, utilizou-se
como subsídio uma pesquisa da área de saúde do Departamento de Clínica e Odontologia
Social da Universidade Federal da Paraíba, Campus I, João Pessoa, Paraíba. Dentro do
escopo da pesquisa, utilizou-se como viés do experimento o projeto intitulado
Levantamento Epidemiológico em Saúde Bucal de Escolares do Município de Caaporã PB, Brasil, cadastrado no Grupo de Pesquisa em Odontopediatria e Clínica Integrada. O
protótipo criado para o experimento foi denominado e-Quilt. Como resultado desta fase
inicial foi possível identificar os padrões de estruturação de metadados adotados pelas
iniciativas de Enhanced Publications e a agregação de dados de pesquisa ao artigo.
Utilizaram-se o software Open Journal Systems para publicação aberta, o Cascading Style
Sheets e a linguagem de marcação Hyper Text Markup Language. Conclui-se que o
protótipo e-Quilt é viável como uma publicação ampliada e será aprimorado na segunda
fase do experimento.
Palavras-chave: Enhanced Publication. Protótipo e-Quilt. Periódico Eletrônico. Dados de
Pesquisa. Padrão de Metadados.
Abstract: This piece of research deals with the current scientific communication scenario
presenting a new modality of scientific publication named Enhanced Publication. This type
of publication is a scientific innovation with convergence, connectivity, data sharing
possibilities and collaboration among researchers. Discussions also occur in regard to the
gaps of the Intellectual Property and the Digital Technologies of Information and
Communication. In this perspective, the general objective of the research is to survey the
structuring metadata standards adopted in enhanced publications for the development of a
prototype of scientific article with enhanced characteristics. Hence, it was adopted the
quadripolar method which comprises 4 (four) poles: epistemological, theoretical,
morphological and technical. The research approach is of experimental and applied nature.
In conducting the research, a piece of research in the health area, from the Department of
Clinics and Social Dentistry of the Paraiba Federal University, campus I, João Pessoa,
Paraiba, was used as a subsidy. In relation to the research scope, the project entitled
Epidemiological Survey in Oral Health of the students from the Caaporã municipality – PB,
Brazil, registered in the Research Group in Pediatric Dentistry and Integrated Clinics was
used as bias of this experiment. The prototype created for the experiment was named e-
3322
Quilt. As result of this initial phase, it was possible to identify the metadata structure
patterns adopted by the initiatives of the Enhanced Publications and the gathering of
research data for the article. The open source publication software Open Journal Systems,
the Cascading Style Sheets and the Hyper Text Markup Language were used. It was
concluded that the e-Quilt prototype is viable as an enhanced publication and it will be
improved in the second phase of the experiment.
Keywords: Enhanced Publications. E-Quilt Prototype. Electronic Journal. Research Data.
Metadata Standard.
1 INTRODUÇÃO
A infraestrutura global de informação já é uma realidade. A possibilidade de que
governos, negócios, instituições, comunidades e pessoas pudessem estar conectados em um
mundo interligado pelas tecnologias digitais, através de redes de comunicação, era
inimaginável épocas atrás, o que hoje se configura como uma realidade concreta. No
contexto da comunicação científica, o e-Science é o atual cenário que emerge com novas
modalidades de publicações utilizando-se das Tecnologias Digitais de Informação e
Comunicação (TDIC) para a geração de novos fluxos informacionais de dados e pesquisas.
O termo e-Science ou e-Ciência refere-se à utilização de dados de pesquisa, por
meio de computação intensiva, para lidar com grande volume de dados. O e-Science é
entendido como “Ciência avançada, e-ciência, é um dos muitos termos usados para
descrever as transformações recentes no empreendimento científico” 53 (JANKOWSKI,
2007, p. 549, tradução nossa).
O cenário do e-Science fez surgir a necessidade de repensar a comunicação
científica nos moldes tradicionais para um entendimento de não linearidade da publicação,
com possibilidades de expansão e conexão. A mudança não está apenas na forma de
publicar e no acesso entre as diversas fontes (dados, pesquisa, links, resultados, mídias,
simulações) e públicos (pesquisador, produtor, usuário), mas também na possibilidade de
convergência, conectividade, compartilhamento de dados e colaboração coletiva. A
modalidade denominada de Enhanced Publication54 se apresenta como uma inovação nesse
novo cenário da pesquisa científica. Discussões se dão também em torno das lacunas da
Propriedade Intelectual (PI) para o compartilhamento e reutilização de dados de pesquisa.
Respostas às questões de cunho autoral e tecnológico ainda estão sem uma definição
integral.
53
54
Enhanced science, e-science, is one of many terms used to describe recent transformations in
the scientific enterprise (JANKOWSKI, 2007, p. 549).
Publicação Ampliada, Expandida ou Agregada.
3323
Nesse sentido, estabelece-se a pergunta de pesquisa: quais padrões de estruturação
de metadados estão sendo adotados para a ambiência de um artigo científico com
características de enhanced publication? Com base nessa problemática, propõe-se como
objetivo geral deste trabalho levantar os padrões de metadados adotados em enhanced
publication. Para atender à proposição geral, definiram-se como objetivos específicos
entender uma enhanced publication; apresentar casos de enhanced publication no cenário
internacional; e, desenvolver um experimento a partir de um protótipo de artigo científico
com características ampliadas.
A pesquisa adotou, para efeito desse estudo, o método quadripolar que consiste de 4
(quatro) polos: epistemológico, teórico, morfológico e técnico. A abordagem da pesquisa
possui caráter exploratório e aplicado. O instrumento utilizado se deu por meio do
experimento com a criação de um protótipo.
O trabalho está estruturado em seções. A seção inicial é composta pela introdução.
A segunda seção abordará uma explanação sobre enhanced publication e as iniciativas no
cenário internacional das enhanced publications e seus padrões de metadados. A terceira
seção apresenta um experimento de protótipo de artigo científico com características
ampliadas. E por fim, as conclusões do experimento e as referências norteadoras do estudo.
2 ENTENDENDO ENHANCED PUBLICATION
O atual cenário da comunicação científica exige interatividade e convergência de
informações entre as publicações eletrônicas, permitindo que, além da geração e do uso da
publicação, ocorram a possibilidade de reuso bem como o compartilhamento de dados e
resultados de pesquisas. Jankowski (2007, p. 549, tradução nossa) afirma que uma
“variedade de termos está em voga para descrever mudanças contemporâneas na condução
da ciência. Os mais prevalentes incluem: a ciberciência, a ciberinfraestrutura e a eciência55”.
Com base na expectativa de uma nova infraestrutura de publicação científica, surge
o fenômeno do e-Science no universo acadêmico-científico. Quando se fala em
comunicação científica, a primeira ideia é a geração de informações e conhecimentos sobre
novas descobertas e avanços. Contudo, o acesso aos resultados e à troca de conhecimentos
gerados depende do compartilhamento destes. O atual cenário da comunicação científica
55
A variety of terms are in vogue to describe contemporary changes in the conduct of science.
The most prevalent include: cyberscience, cyberinfrastructure and e-science (JANKOWSKI,
2007, p. 549).
3324
propõe que esses conhecimentos possam ser compartilhados e reutilizados proporcionando
uma grande geração, integração e interação de dados.
Veernooy-Gerritsen (2009, p. 21, tradução nossa) afirma que “no mundo digital dos
estudantes, o acesso on-line é fornecido para artigos, com referência de hiperlinks e dados
complementares. [...] a relação com outros materiais, por exemplo, multimídia e contexto
semântico, por exemplo, XML, não é amplamente percebida no momento”56.
Os padrões convencionais de publicações já não atendem aos novos fluxos e anseios
da pesquisa científica. Nesse sentido, Sales, Sayão e Souza (2013, p. 1) afirmam que:
A comunidade científica vem sentindo a necessidade de novos modelos de
publicações que possam expressar a complexidade e a dinâmica da
pesquisa científica contemporânea. Os pesquisadores demandam por
modelos que explicitem mais claramente a pesquisa desenvolvida, seus
métodos, seu material, os dados e conhecimentos gerados; que revelem
com clareza a intenção do pesquisador; e que os resultados sejam
avaliados de forma mais eficaz e interativa.
Esta complexidade reflete o atual cenário acadêmico-científico. O padrão da
publicação em um ambiente eletrônico traz consigo as mesmas características semânticas,
lineares e estáticas de um documento impresso. Seu formato linear não permite a
interatividade entre a publicação, o pesquisador e o usuário, pois conforme afirmam
Aalbersberg, Dunham e Koers (2011, p. 2, tradução nossa): “O artigo atual é geralmente o
mesmo dos primeiros periódicos científicos do século XVII. [...] uma nova infraestrutura
para disseminação e compartilhamento do conhecimento científico que novos modelos de
publicação, que utilizam o máximo potencial tecnológico, vêm sendo propostos”57.
A infraestrutura digital que apoia as publicações científicas eletrônicas baseia-se em
plataformas tecnológicas, padrões de metadados e protocolos de interoperabilidade cuja
finalidade está centrada no armazenamento e na disseminação, disponibilizando o
documento nos mais variados formatos, não permitindo a convergência, a colaboração e o
compartilhamento entre as partes e os pares.
Ainda atual e pertinente, afirma Dias (2003, p. 21):
No momento em que acessamos alguma revista científica eletrônica,
disponibilizada na web, não é difícil constatar que a vasta maioria das
56
57
In the digital world of scholarly publishing online access is provided to articles, hyperlinked
reference and supplementary data. […], relation with other materials, e.g. multimedia, and
semantic context, e.g. XML, is not realized widely at present. (VEERNOOY-GERRITSEN,
2009, p. 21).
The current article is generally the same as the first scientific journals of the seventeenth
century. It is so with the intention of establishing a new infrastructure for dissemination and
sharing of scientific knowledge that new publishing models, using the maximum technological
potential, have been proposed (AALBERSBERG; DUNHAM; KOERS, 2011, p. 2).
3325
mesmas não faz bom uso dos recursos passíveis de implementação para o
padrão web. O que encontramos, muitas vezes, são meras transcrições de
periódicos já existentes de forma impressa para o meio eletrônico, sem
nunca terem tido nenhum ancestral no formato impresso, não
implementam as possibilidades inerentes ao meio eletrônico de forma
satisfatória.
A necessidade de mudanças nos modelos das publicações se configura, de maneira
generalizada, em todas as áreas e em escala mundial. O cenário da comunicação científica
está em ebulição e evolução, não só em sua forma e acesso entre fontes (dados, pesquisas,
links, resultados, mídias) e públicos (pesquisador, produtor, usuário ou indivíduo), mas
também na sua convergência, conectividade e interatividade.
Tenopir et al (2011, p. 1, tradução nossa) complementam esse entendimento com:
Os dados são a infraestrutura de ciência [...]. Além disso, “a ciência está se
tornando em dados intensivos e colaborativos” [1]. A quantidade de dados
coletados, analisados, reanalisados e armazenados tem aumentado
enormemente devido à evolução na simulação e modelagem
computacionais, aquisição de dados automatizados e tecnologias de
comunicação [2]. Seguindo os paradigmas de pesquisa anteriores
(experimentais, teóricos e computacionais), esta nova era tem sido
chamada de “o quarto paradigma: descoberta científica intensiva de
dados” onde “toda a literatura científica é online, todos os dados da
ciência estão online e eles interagem uns com os outros” [3]. Os dados
digitais não são apenas as saídas de pesquisa, mas fornecem subsídios para
novas hipóteses, permitindo novos conhecimentos científicos e
conduzindo à inovação [4]58.
É possível perceber claramente que a pesquisa tradicional está em transição para
uma modelagem de publicação com dados agregados de pesquisa. Os dados são
potencializados e há, então, a possibilidade de esses serem reaproveitados para gerar novos
estudos, pesquisas e conhecimentos científicos.
Borgman (2010, p. 2, tradução nossa) corrobora esse entendimento afirmando que:
Nas esferas científicas, as expectativas em torno de um mundo rico são
imensas [...]. A relevância dos dados no contexto das “grandes ciências”,
[...] conduziu não somente ao surgimento de novos modelos de ciência -
58
Data are the infrastructure of science […]. Moreover, “science is becoming data intensive and
collaborative” [1]. The amount of data collected, analyzed, re-analyzed, and stored has
increased enormously due to developments in computational simulation and modeling,
automated data acquisition, and communication technologies [2]. Following the previous
research paradigms (experimental, theoretical, and computational), this new era has been called
“the fourth paradigm: data-intensive scientific discovery” where “all of the science literature is
online, all of the science data is online, and they interoperate with each other” [3]. Digital data
are not only the outputs of research but provide inputs to new hypotheses, enabling new
scientific insights and driving innovation [4] (TENOPIR et al, 2011, p.1).
3326
coletivamente chamados de “Quarto paradigma científico” ou “eScience”
[...]59.
É possível constatar não só a ideia de um novo paradigma revolucionário no cenário
da comunicação científica, mas também na complexidade de produção, compartilhamentos,
curadoria e propriedade intelectual dos dados e das publicações geradas nesse contexto.
Assim, “uma publicação ampliada é uma nova forma de comunicação em ciência,
onde os pesquisadores tornam as publicações disponíveis online em conjunto com outros
materiais. Ao adicionar os dados subjacentes e modelos em um artigo, torna-se mais fácil
verificar os resultados, reproduzir e reutilizar”60 (DANS, 2014, online, tradução nossa).
Reunir os dados e diferentes nuances, nesse novo cenário, requer pensar em uma
nova modalidade de publicação científica. Nessa perspectiva do e-Science, a publicação
ampliada, conhecida internacionalmente como Enhanced Publication (EP), pode ser
compreendida como uma maneira totalmente nova de publicação da sua forma tradicional
(um livro, um artigo ou um relatório), enriquecida com informações adicionais.
O termo Enhanced Publication ainda não é usual na comunicação científica, muito
embora existam investigações datadas de 2001, que apresentam as primeiras manifestações
de mudanças na publicação científica. Estudos se concentraram na possibilidade de
convergência e entrelaçamento de produtos de e-pesquisa que se encontram distribuídos,
expandindo o conceito tradicional de documento científico (AALBERSBERG, DUNHAM
e KOERS, 2001; KIRCZ, 2001, 2002; VEERNOOY-GERRITSEN, 2009; SAYÃO e
SALES, 2012) para uma publicação ampliada.
Consideram-se também as novas percepções e ações nas atividades de cooperação
entre pesquisadores, publicações e seus componentes na sociedade em rede. A FIGURA 1
ilustra o modelo de publicação na sua versão original, idealiza a concepção inicial de
Enhanced Publication com os objetos agregados à publicação tradicional, em diferentes
suportes e disponíveis em vários formatos de mídias, emergindo, assim, as possibilidades de
convergências, interações e conexões em uma mesma publicação.
59
In scientific spheres, expectations around a rich world are immense […]. The relevance of the
data in the context of the “big sciences” […], led not only to the emergence of new models of
science - collectively called “Fourth scientific paradigm” or “eScience” [...]. (BORGMAN,
2010, p. 2).
60 An Enhanced Publication is a new form of communication in science, where researchers make
publications available online in conjunction with other material. By adding the underlying data
and models in an article, it becomes easier to verify the results, reproduce and reuse. (DANS.
Disponível
em:
<http://www.dans.knaw.nl/en/content/categorieen/nieuws/enhancedpublications-accessible-narcis>. Acesso em: 20 maio 2014).
3327
FIGURA 1 – Modelo tradicional de Enhanced Publication (EP)
Fonte: Openaire (2013, online).
Muitos são os desafios que cercam a publicação ampliada, dentre eles a
infraestrutura para a interoperabilidade e compartilhamento entre dados, pesquisadores e
publicações que são destaques neste artigo.
Estudo realizado por Veernooy-Gerritsen (2009, p. 21, tradução nossa), na
Universidade de Amsterdam, aponta para a necessidade de construção de infraestrutura
informacional e tecnológica quando afirma que:
Em uma publicação ampliada, o padrão de link deve apoiar e refletir a
relação entre a publicação e todos os relevantes objetos como dados, Web
sites, comentários. Este padrão pode tornar-se bastante complexo e vai
além do que pode ser capturado na estrutura linear ou sequencial do
modelo de publicação tradicional61.
A complexidade envolvida requer uma infraestrutura que abrange uma gama de
tecnologias, técnicas, padrões e pesquisadores que possam desvendar as diferentes nuances
desse contexto.
Borgman (2003, p. 4, tradução nossa), em seus estudos, aponta para uma
infraestrutura informacional global, quando afirma que: “o acesso à informação está entre
os argumentos fundamentais para a construção de uma infraestrutura informacional global.
61
In an Enhanced Publication, this link pattern should support and reflect the relation between the
publication and all relevant objects like data, Web sites, commentaries. This pattern can
become quite complex and goes beyond what can be captured in the linear or sequential
structure of the traditional publication model (VEERNOOY-GERRITSEN, 2009, p. 21).
3328
Recursos informacionais são essenciais para todo manejo de um acontecimento humano,
incluindo comércio, educação, pesquisa e políticas governamentais” 62.
Os recursos informacionais que permeiam essa infraestrutura são compostos por
objetos digitais de diferentes formatos e variadas mídias, bem como os relacionamentos de
agregação existentes entre estes. Na seção a seguir, descrevem-se os objetos digitais que
compõem as Enhanced Publications.
2.1 Dados de pesquisa e objetos digitais
Antes de definir quais elementos podem compor uma Enhanced Publication, é
importante entender as nomenclaturas entre objetos digitais e dados de pesquisa. Esses
termos são usuais e podem ser sinônimos.
Em uma definição concisa, Borgman (2010, p. 3, tradução nossa) afirma que “os
dados são fatos, números, letras e símbolos que descrevem um objeto, ideia, condição,
situação ou outros fatores. A noção de dados pode variar consideravelmente entre os
colaboradores e, mais ainda, entre as disciplinas”.63
Desta forma, compreende-se que os dados de pesquisa são todos os elementos que
foram produzidos e gerados a partir de uma pesquisa. Elementos esses que podem ter
valores semânticos diferentes, com formatos e mídias variadas. Os formatos e as diferentes
mídias de dados e informações geradas compõem os objetos digitais de uma Enhanced
Publication.
Ainda conforme a mesma autora, “o compartilhamento de dados é a liberação de
dados de pesquisas para o uso de outros” (BORGMAN, 2012, p. 1060, tradução nossa).64
Nessa perspectiva, trata-se do reuso de dados de pesquisas para continuidade de outros
estudos. Este é o cerne do e-Science, disponibilizar dados de pesquisa a partir da agregação,
compartilhamento e interação entre dados e pesquisadores. A agregação dos diferentes
dados digitais, gerados na pesquisa ou em outras pesquisas, reúne objetos digitais em um
único espaço, proporcionando a expansão do acesso e o compartilhamento dos diferentes
objetos independentemente de sua localização.
62
63
64
Information access is among the primary arguments for constructing a global information
infrastructure. Information resources are essential for all manner of human affairs, including
commerce, education, research, government policy (BORGMAN, 2003, p. 4).
Data are facts, numbers, letters and symbols that describe an object, idea, condition, location or
other factors. The notion of data can vary considerably among employees, and even more
between disciplines (BORGMAN, 2003, p. 4).
Data sharing is the release of research data for use in other (BORGMAN, 2012, p. 1060).
3329
O padrão de ligação dos objetos é um aspecto importante da infraestrutura “em uma
publicação ampliada, este padrão de ligação deve apoiar e refletir a relação entre a
publicação e todos os objetos relevantes, como dados, sites, comentários. [...] bastante
complexo e vai além do que pode ser capturado na estrutura linear ou sequencial do modelo
de publicação tradicional”65 (VEERNOOY-GERRITSEN, 2009, p. 21, tradução nossa).
Essa infraestrutura deve obedecer a padrões que possibilitem relações não lineares e
agregue os dados à publicação, como também à interoperabilidade entre os diferentes
objetos para o seu compartilhamento e reuso. A agregação dos dados de pesquisa não tem
uma regra definida. O pesquisador e a natureza da pesquisa delineiam os objetos digitais
que serão anexados ao artigo principal. Contudo, é nesse ambiente que surge a necessidade
de adotar padrões que estruturem os diferentes níveis de objetos.
2.2 Padrões de metadados
A complexidade de estruturação de vários elementos contidos nos diferentes
suportes de informação gera a necessidade de adotar padrões de metadados enriquecidos e
legíveis que possam ser recuperados e compartilhados em uma publicação ampliada. Nesse
sentido, pode-se afirmar que:
Em cada modelo, tenta-se adicionar uma estrutura utilizando metadados
em níveis muito diferentes [...]. Esta estrutura não é importante apenas
para a leitura e compreensão humanas, mas também deve ser legível por
máquina para fins de mineração de dados. Uma das dificuldades é que a
adição de metadados e/ou estrutura rica é muito demorada. Quase todos os
pesquisadores mencionam a importância da criação de ferramentas para
auxiliar o autor. Além disso, (Lynch, 2007) menciona a importância de
ferramentas: “Espero que vejamos uma nova geração de ferramentas de
visualização e anotação implementadas, supostamente trabalhando em
representações semanticamente ricas no documento XML”. Parece que a
maioria dos formatos de metadados, como Dublin Core, MARC e METS,
é muito limitada para Publicações Ampliadas66 (VEERNOOYGERRITSEN, 2009, p. 31, tradução nossa).
65
66
In an Enhanced Publication, this link pattern should support and reflect the relation between the
publication and all relevant objects like data, Web sites, commentaries. This pattern can
become quite complex and goes beyond what can be captured in the linear or sequential
structure of the traditional publication model (VEERNOOY-GERRITSEN, 2009, p. 21).
In every model it is tried to add a structure by using metadata on very different levels […].This
structure is not only important for human reading and comprehension, but should also be
machine-readable for data mining purposes. One of the difficulties is that adding metadata
and/or rich structure is very time consuming. Almost all researchers mention the importance of
creating tools to assist the author. Moreover, (Lynch, 2007) mentions the importance of tools:
“I hope that we will see a new generation of viewing and annotation tools deployed,
presumably working on semantically rich XML document representations.” It appears that
most metadata formats, like Dublin Core, MARC, and METS, are too limited for Enhanced
Publications.
3330
Os padrões de metadados existentes e adotados, atualmente, ainda estão sendo
aprimorados para o contexto de compartilhamento de dados e das Enhanced Publications.
Muito embora algumas iniciativas desenvolvidas já apresentem soluções de
estruturação, descrição dos metadados e agregação de objetos nesse contexto, “a atual
infraestrutura de repositórios, com base em OAI-PMH, XML, Dublin Core, DIDL ou DDI,
é capaz de lidar com os padrões mais complexos associados às publicações ampliadas”
(VEERNOOY-GERRITSEN, 2009, p. 22, tradução nossa).
Corroboram-se essas iniciativas por meio do padrão METS, desenvolvido para
atender ao contexto das Bibliotecas Digitais, o qual tem a finalidade de estruturar os
metadados de diferentes objetos e suas relações de agregações. Acerca desse padrão,
Rodrigues (2008, p.3) afirma que, “o padrão METS é uma linguagem de marcação baseada
em XML que provê uma estrutura capaz de registrar metadados descritivos, administrativos
e estruturais relativos aos objetos de uma biblioteca digital”. O padrão METS é expresso
através de um XML Schema, e um documento XML, criado com base nesse padrão, é
denominado de documento METS.
Nesse sentido, outra iniciativa se pauta na “Nature Publishing Group (2014,
tradução nossa)67, uma editora internacional que publica periódicos acadêmicos, revistas,
bases de dados on-line e serviços no domínio da ciência e da medicina”. Disponibiliza, por
meio do periódico Nature, uma iniciativa de publicação ampliada que se apoia em
descritores detalhados para o uso e reuso de dados.
Descritores de dados irão fornecer descrições detalhadas das experiências
e procedimentos envolvidos na geração de conjuntos de dados
importantes, incluindo informações essenciais necessárias para os
cientistas avaliar a qualidade técnica dos dados, reproduzir os principais
métodos ou fluxos de trabalho de análise e, finalmente, voltar a utilizar os
dados para lidar com importantes questões de pesquisa. Além disso, todas
as publicações de dados científicos serão apoiadas por metadados que
descrevem propriedades-chave das experiências e dados resultantes, que
serão verificados por um curador interno e lançados no formato ISA-guia,
e esperamos que em outros formatos padrões no futuro. Estes metadados
ajudarão a mineração de dados, e vão ajudar os cientistas a encontrar e
reutilizar os conjuntos de dados de alta qualidade armazenados em vários
repositórios de dados68 (NATURE, 2014, online, tradução nossa).
67
68
Nature Publishing Group (2014) is an international publishing company that publishes
academic journals, magazines, online databases, and services in science and medicine.
Data Descriptors will provide detailed descriptions of the experiments and procedures involved
in generating important datasets, including essential information needed for scientists to assess
the technical quality of the data, reproduce key methods or analysis workflows, and ultimately
reuse the data to address important research questions. In addition, every publication
at Scientific Data will be supported by metadata describing key properties of the experiments
3331
A Nature adota o padrão ISA-tab para a descrição detalhada dos metadados de todos
os objetos agregados aos dados de pesquisas que irão compor a Enhanced Publication.
Esses são imprescindíveis para possibilitar a estruturação, curadoria e interoperabilidade
dos dados e publicação. Os padrões atuais ainda estão sendo customizados para a estrutura
de Enhanced Publication. O XML deve proporcionar a agregação e as relações entre os
diversos objetos.
Nesse sentido, Veernooy-Gerritsen (2009, p. 31, tradução nossa) afirma que “a
informação que precisa ser gravada não pode ser mapeada facilmente para uma estrutura
XML hierárquica. Estamos lidando com objetos, propriedades e tipos de objetos e relações
entre objetos. [...]. Para esta nova infraestrutura, precisaremos usar o modelo OAI-ORE”69.
A afirmação sugere que o modelo OAI-ORE seja utilizado para a descrição e troca
de agregações entre objetos digitais. O Open Archives Initiative (2014, online, tradução
nossa) é,
A Iniciativa de Arquivos Abertos para Reuso de Objetos e Intercâmbio
(OAI-ORE) define padrões para a descrição e troca de agregações de
recursos da Web. Essas agregações, às vezes chamadas de objetos digitais
compostos, podem combinar recursos distribuídos com vários tipos de
mídia, incluindo texto, imagens, dados e vídeo. O objetivo dessas normas
é expor o conteúdo rico nestas agregações para aplicativos que suportam a
criação, depósito, troca, visualização, reutilização e preservação70.
Os estudos apontam para a adoção do modelo OAI-ORE, em publicações ampliadas,
para possibilitar que os objetos digitais de pesquisa sejam agregados à publicação
permitindo seu compartilhamento e reuso em diferentes mídias e suportes de informação.
69
70
and resulting data, which will be checked by an in-house curator and released in the ISA-tab
format, and hopefully other standard formats in the future. These metadata will aid data
mining, and will help scientists find and reuse high-quality datasets stored across multiple data
repositories.
(NATURE,
2014,
online.
Disponível
em:<http://blogs.nature.com/scientificdata/2013/07/23/scientific-data-to-complement-andpromote-public-data-repositories>. Acesso em: 23 jun. 2014).
The information that needs to be recorded cannot be mapped easily to a hierarchical XML
structure. We are dealing with objects, properties and types of objects, and relationships
between objects […]. For this new infrastructure, we will need to use the OAI-ORE model
(VEERNOOY-GERRITSEN, 2009, p. 31).
Open Archives Initiative Object Reuse and Exchange (OAI-ORE) defines standards for the
description and exchange of aggregations of Web resources. These aggregations, sometimes
called compound digital objects, may combine distributed resources with multiple media types
including text, images, data, and video. The goal of these standards is to expose the rich content
in these aggregations to applications that support authoring, deposit, exchange, visualization,
reuse, and preservation. (OPEN ARCHIVES INITIATIVE (OAI), online. Disponível em:
<http://www.openarchives.org/ore/>. Acesso em: 28 jul. 2014).
3332
Para efeito desse artigo serão abordados apenas os aspectos relacionados aos
padrões de metadados. Na seção seguinte serão demonstradas as iniciativas do cenário
internacional.
3 CASO DE ENHANCED PUBLICATION NO CENÁRIO INTERNACIONAL
Esta seção aponta para uma iniciativa no cenário internacional de Enhanced
Publication, que norteou a construção do protótipo de artigo científico com características
ampliadas associadas a esta pesquisa. Algumas iniciativas e muitas discussões estão sendo
desenvolvidas no cenário internacional no que tange ao e-Science, especialmente nos
contextos do Scientific Data 71, Data Sharing72 e Enhanced Publications.
Foi delimitada, para efeito deste estudo, uma iniciativa de Enhanced Publication
desenvolvida no cenário internacional pela Nature Publishing Group.
3.1 Periódico Nature
O periódico Nature apresenta uma experiência de convergência de objetos digitais
com o artigo tradicional, fornecendo possibilidades de acesso ao conjunto dos dados
oriundos da pesquisa. A partir da combinação da publicação científica com as informações
estruturadas em datasets, é possível permitir o acesso aos dados de pesquisa. A Nature é
uma plataforma que hospeda no sítio nature.com, aproximadamente, 80 revistas publicadas
pela Nature Publishing Group, com inúmeros cientistas de acesso aberto e com um
programa de publicação online contínua.
Na perspectiva do e-Science, a Nature73 menciona que “os dados científicos
objetivam se referir à crescente necessidade de tornar os dados de pesquisa mais
disponíveis,
citáveis,
detectáveis,
interpretáveis,
reutilizáveis
e
reprodutíveis”.
(SCIENTIFIC DATA, 2014, online, tradução nossa).
Dessa forma, a Nature desenvolveu uma nova perspectiva de acesso aberto dos seus
periódicos adicionando ao artigo, descritores que possibilitem acesso a dados primários e
permitindo as funcionalidades de comunicação e interação com a publicação, conforme
ilustrado na FIGURA 2.
Os dados científicos, disponíveis na Scientific Data da Nature, disponibilizam os
artigos científicos e permitem agregar diferentes dados de pesquisa, vinculando também,
71
72
73
Dados Científicos.
Compartilhamento de Dados.
Scientific Data aims to address the increasing need to make research data more available,
citable, discoverable, interpretable, reusable and reproducible (SCIENTIFIC DATA.
Disponível em: <http://www.nature.com/sdata/about>. Acesso em: 23 jun. 2014).
3333
recursos e ferramentas web em uma única interface. Informações sobre os autores,
contribuições e afiliações também estão disponíveis por meio de hiperlinks.
A FIG. 2 apresenta ainda funcionalidades de acesso a redes e mídias sociais. No
acesso ao artigo, há a possibilidade de serem disponibilizados o texto em PDF, as métricas,
citações e direito de permissões.
FIGURA 2 – Homepage dos Dados Científicos da Nature
Fonte: Nature (2014).
Isso é viável a partir da adoção de um padrão de estruturação de metadados, descrito
na seção a seguir.
3.1.1 Padrão de Estruturação da Nature
O padrão de estruturação de metadados da Nature é o protocolo ISA. O ISA é de
autoria de diversos colaboradores em mais de 30 (trinta) organizações científicas em todo o
mundo. Como resultado, o projeto beneficia a colaboração, evitando a repetição
desnecessária dos dados de pesquisa.
A partir da descrição desses dados e metadados, esse padrão estrutura as
informações de toda a pesquisa, além de utilizar abordagens da web semântica para tornar o
conhecimento existente disponível para a realização de conexões que permitam que os
dados sejam recuperados de suas fontes originais.
3334
Por descritores, a Nature74 define que: “Descritores de dados são uma combinação
de conteúdo de publicação científica tradicional e informações estruturadas na curadoria
interna e são projetados para maximizar a reutilização e permitir a pesquisa, vinculação e
mineração de dados” (SCIENTIFIC DATA, 2014, online, tradução nossa).
O protocolo utilizado pela Nature para as suas publicações ampliadas é o ISA-tab75.
Para operacionalizar e usar amplamente os dados, a comunidade científica precisa adotar
tecnologias e mecanismos que possam apoiar a interoperabilidade desses dados de pesquisa.
O ISA-tab é um framework76 que descreve e estabelece os pré-requisitos apresentando um
ecossistema de soluções para o compartilhamento e reutilização dos dados de pesquisa.
A FIG. 3 ilustra as interligações que a estrutura ISA-tab utiliza: os conjuntos de
dados de interesse para cada comunidade e como os sistemas de captação são alimentados
pela suíte de softwares ISA.
O framework77 ISA está estruturado de maneira hierárquica, conforme apresentado
na FIGURA 3. Essa estrutura do formato de arquivo ISA-tab possui código aberto e foi
desenvolvida sobre as seguintes categorias de metadados: uma sobre investigação
(investigation) que trata do contexto do projeto; a segunda refere-se ao estudo (study) que
define uma unidade de investigação; e, por último, o ensaio (assay) que realiza a medição
analítica (dados quantitativos e qualitativos).
74
75
76
77
Data Descriptors are a combination of traditional scientific publication content and structured
information curated in-house, and are designed to maximize reuse and enable searching,
linking and data mining (SCIENTIFIC DATA. Disponível em: <http://www.nature.com/sdata
/archive>. Acesso em: 23 jun. 2014).
Tradução de Guia-ISA. Disponível em: <http://www.isa-tools.org/>. Acesso em: 10 jul. 2014.
Tradução de Estrutura.
Disponível em: <http://www.nature.com/ng/journal/v44/n2/fig_tab/ng.1054_F2.html>. Acesso
em: 15 jul.2014.
3335
FIGURA 3 – Categorias de metadados da estrutura ISA-tab
Fonte: ISA-Tab (2014).
Além da estrutura ISA-tab existe a ISA Commons78: uma comunidade crescente que
utiliza os metadados ISA para facilitar a criação de normas compatíveis para a gestão,
colaboração, curadoria e reutilização de conjunto de dados em uma ambiência, cada vez
mais, diversificada de domínios das ciências.
4 PROTÓTIPO DE ARTIGO AMPLIADO: UM EXPERIMENTO DE PESQUISA
Esta seção apresenta a primeira fase do protótipo que compõe o experimento de
pesquisa da tese de doutorado, ora em andamento. Dessa forma, o protótipo objetivou a
elaboração de um artigo científico, com características ampliadas, cuja pretensão foi
alcançar a essência de uma Enhanced Publication e desenvolver um padrão de estruturação
de metadados. Nessa primeira fase, recorreu-se à experiência da Nature Publications para
identificar o padrão de metadados utilizado na estruturação dos elementos e na agregação
dos objetos de pesquisa.
A denominação dada ao protótipo foi o e-Quilt79. Esta denominação reflete o estado
da arte do experimento, ilustrado por meio do protótipo do artigo com características
78
79
Disponível em: <http://isacommons.org/>. Acesso em: 10 jul. 2014.
Definição dos autores (2014): Quilt = Colcha de Retalhos, o e-Quilt é uma derivação da palavra
Quilt para o ambiente digital no e-Science.
3336
ampliadas, que apresentam, na sua essência, uma publicação ampliada composta pelo artigo
tradicional agregando dados e objetos de pesquisa associados.
FIGURA 4 - Logo e-Quilt
Fonte: Elaborado pelos autores (2014).
Para a realização dessa fase, utilizou-se, como subsídio, uma pesquisa da área de
saúde, do Departamento de Clínica e Odontologia Social da Universidade Federal da
Paraíba, Campus I, João Pessoa, Paraíba. Dentro do escopo da pesquisa, o projeto intitulado
Avaliação de Proposta de Qualificação de Recursos Humanos e Programação no Programa
Saúde da Família derivou várias pesquisas, dentre elas: o Levantamento Epidemiológico em
Saúde Bucal de Escolares do Município de Caaporã - PB, Brasil, cadastrado no Grupo de
Pesquisa em Odontopediatria e Clínica Integrada, no CNPq, utilizado para o viés deste
experimento.
O protótipo desenvolvido foi realizado com o propósito de agregar dados de
pesquisa, gerados no campo da pesquisa, para o artigo tradicional. Para tanto, foi necessário
definir uma sistemática e um framework para a estruturação do artigo na plataforma e-Quilt
que vislumbrasse, nessa primeira fase, a adoção de critérios necessários para a arquitetura,
agregação e linkagem dos objetos digitais relacionais da publicação.
A sistemática para a estruturação do artigo ampliado constituiu-se de: a) elaboração
do artigo; b) estruturação dos elementos para padrão de metadados; c) formatação
normativa do artigo; d) instalação do Apache OpenOffice 4 para o pré-teste; e) criação de
uma estrutura HTML; f) geração da página HTML com os conteúdos; g) agregação dos
objetos da pesquisa (hyperlinks e âncoras); h) instalação da plataforma OJS; i)
customização da plataforma e-Quilt; j) upload dos arquivos na plataforma e-Quilt.
Essa sistemática foi desenvolvida, simultaneamente, com a estruturação dos
metadados do artigo, conforme a seção seguinte.
4.1 Estruturação dos metadados e-Quilt
Com base no caso de Enhanced Publication da Nature, foram adotados para o
experimento e-Quilt dois tipos de metadados, a saber: descritivos e administrativos.
Santos et al. (2014, p. 148- 149) afirmam que,
3337
No ambiente digital, os metadados influenciam tanto no acesso quanto na
recuperação da informação e são utilizados como elementos de busca para
facilitar o acesso aos dados descritivos e a localização de recursos na web,
e para que tenham aceitação internacional e auxiliem na interoperabilidade
eles devem possuir uma padronização.
Os metadados descritivos são usados para descrever, identificar e representar
recursos de informações. Esses fornecem os elementos para descrição do título, autor,
imprenta, data, resumo, palavras-chave que podem ser hiperlinks e anotações sobre
usuários. E os metadados administrativos são usados no gerenciamento e administração dos
recursos de informação. Esses, por sua vez, fornecem informações sobre a data de criação
dos recursos, tipos de arquivos, formas de acesso, controle de direitos e reproduções e dos
registros legais.
Esses dois níveis de metadados foram utilizados para padronizar a formatação do
artigo ampliado. Para cada tipo de metadados, foram descritos elementos oriundos do
conteúdo e dos dados agregados à pesquisa e outros elementos e ferramentas adicionadas
pela plataforma do periódico. Entre cada seção do artigo, hyperlinks foram adotados para
ligar os conteúdos do texto às suas respectivas seções.
A seguir, descreve-se brevemente a plataforma de gestão e linguagem de
programação adotada na ambiência do e-Quilt.
4.2 Plataforma de gestão eletrônica do e-Quilt
Como etapa inicial do protótipo, a plataforma OJS (Open Journal System), na versão
3.0-beta, foi utilizada para a gestão eletrônica do artigo. Inicialmente, foi criada uma nova
interface gráfica do usuário baseada na estrutura padrão desenvolvida pela Public
Knowledge Project (PKP) 80. Em seguida, foi gerado um arquivo Cascade Style Sheets
(CSS)81 definindo as propriedades visuais de cada elemento da interface. Foi realizado o
upload do arquivo CSS, no CMS (Content Management System) da plataforma OJS,
disponível na (URL: <http://wrco.ccsa.ufpb.br/escience/>).
Para a formatação do artigo científico ampliado, também se adotaram a linguagem
de marcação HTML e CSS na plataforma OJS. Na estruturação dos conteúdos dos dados de
pesquisa relacionados e informações adicionais, referentes ao periódico e ferramentas, uma
80
81
PKP é uma iniciativa de multiuniversidade em desenvolvimento de software livre de código
aberto e realização de pesquisas para melhorar a qualidade e alcance de publicação acadêmica.
Disponível em: <https://pkp.sfu.ca/>. Acesso em: 27 jul. 2014.
Cascading Style Sheets ou simplesmente CSS que é uma linguagem de folhas de estilo
utilizada para definir a apresentação de documentos escritos na linguagem de marcação HTML,
por ser uma linguagem que possibilita o acesso através de diversos dispositivos (smartphones,
tablets, desktop, etc.) e diferentes sistemas operacionais.
3338
interface própria foi criada para a navegabilidade do e-Quilt, que foi desenvolvido
especialmente para esse protótipo.
A interface foi dividida em três partes: menu esquerdo, central e menu direito. No
menu esquerdo, agruparam-se os metadados descritivos que estão relacionados ao conteúdo
do artigo, tais como: sumário, resumo, autores, filiações, método e os resultados oriundos
da pesquisa em andamento. No centro, agrupou-se o artigo principal com os metadados
descritivos e seus respectivos hiperlinks. E no menu direito, estruturaram-se os metadados
administrativos que estão relacionados com as informações suplementares do artigo, as
ferramentas do periódico disponíveis pela plataforma OJS, bem como as permissões
referentes à propriedade intelectual conforme ilustrado na FIGURA 5.
Dessa forma, para a interface do artigo ampliado adotaram-se os objetos digitais
compostos (formatos e extensões) agregados ao artigo principal. A primeira versão do
protótipo e-Quilt pode ser visualizada na FIGURA 6 e acessível pela URL:
<http://designlivre.net/artigo_ampliado/teste.html#FILE-001.
FIGURA 5 - Interface do protótipo e-Quilt
Fonte: Elaborado pelos autores (2014).
Para vincular os diferentes objetos digitais compostos (formatos de mídia e
múltiplas extensões), no conteúdo do protótipo do artigo ampliado, foram inseridos
inúmeros hyperlinks e âncoras. As tags <a> <a/> são utilizadas para definir um hiperlink,
podendo estar relacionadas a diversos atributos (href, target, accesskey e title).
3339
FIGURA 6 - Interface do artigo científico do protótipo de periódico e-Quilt
Fonte: Elaborado pelos autores (2014).
O uso comum das âncoras tem a finalidade de tornar as páginas acessíveis aos
usuários. Isso proporciona uma melhor navegabilidade através da nomeação de uma região
do conteúdo principal onde foi incluído um hiperlink no início da página que remete o
leitor, diretamente, para o conteúdo nomeado, evitando que tenha que passar por cada uma
das seções do artigo. A interface em HTML do protótipo e-Quilt está em fase de
aprimoramento e agregação dos objetos, cumprindo a fase 1 do experimento. O protótipo
está sendo aprimorado, para a segunda fase do experimento, com a complementação dos
padrões de metadados e os protocolos de interoperabilidade adotados na ambiência da
Enhanced Publication. A fase 2 será desenvolvida no período de agosto a novembro de
2014.
5 CONCLUSÕES
As mudanças no cenário da publicação científica estão em evidência. O protótipo eQuilt criado com o intuito de apresentar um padrão de estruturação para publicação de
artigo científico, com características ampliadas, atendeu ao objetivo inicial. A partir do caso
da Nature, foi possível entender e identificar o padrão de metadados ISA-tab adotado na
ambiência das suas publicações ampliadas no cenário internacional, motivando, assim, a
estruturação preliminar do protótipo de artigo científico com características ampliadas.
Criaram-se, nessa fase, uma interface própria e uma logomarca para o e-Quilt com
uma comunicação visual adequada à essência de uma Enhanced Publication. A adoção do
3340
Software OJS de publicação aberta para a hospedagem do artigo, o CSS como linguagem de
folhas de estilo, a linguagem de marcação HTML e o recurso de hyperlink foram essenciais
para tornar o experimento acessível, com possibilidades de agregação entre os dados de
pesquisa, objetos digitais e o conteúdo do artigo. Quanto ao artigo, vários objetos e dados
de pesquisa foram adicionados, possibilitando, dessa feita, usar formatos com diferentes
extensões, oriundos da pesquisa que foi utilizada como subsídio para o experimento. Dentre
os diferentes formatos, destacam-se o resumo em áudio, dados de calibração advindos de
software, arquivos em planilha Excel e outros documentos gerados para a pesquisa.
Por fim, concluiu-se, nesta fase da pesquisa, que o experimento foi realizado e o
protótipo e-Quilt é uma publicação viável e totalmente acessível pela Internet.
REFERÊNCIAS
AALBERSBERG, Ijsbrand Jan; DUNHAN, Judson; KOERS, Hylke. Connecting scientific
articles with research data: new directions in online scholarly publishing. 2011.
Disponível em: <http://isds.nict.go.jp/wds-kyoto-2011.org/pdf/IS704.pdf>. Acesso em: 19
jan. 2014.
BORGMAN, C. L. Scholarship in the digital age: information, infrastructure, and the
Internet. Cambridge: The MIT Press, 2010. (E-book).
BORGMAN, Christine L. From Gutenberg to the Global Information Infrastructure:
Access to Information in the Networked World. London: MIT Press, 2003. (E-book).
BORGMAN, Christine L. The conundrum of sharing research data. Journal of the
American Society for Information Science and Technology, v. 63, n. 6, p. 1059-1078,
June 2012. Disponível em:
<http://onlinelibrary.wiley.com.ez45.periodicos.capes.gov.br/doi/10.1002/asi.22634/pdf\>.
Acesso em: 17 abr.2014.
DANS. Disponível em:<http://www.dans.knaw.nl/en/content/categorieen/nieuws/enhancedpublications-accessible-narcis>. Acesso em: 20 maio 2014
DIAS, Guilherme A. Evolução tecnológica dos periódicos científicos eletrônicos: do
paradigma gutenberguiano para um cenário hipermidiático. Revista do Mestrado
Profissional Gestão em Organizações Aprendentes, v.2, n.1, p. 1-2, 2013. Disponível
em: <http://periodicos.ufpb.br/ojs/index.php/mpgoa/article/view/16996/9677>. Acesso em:
4 maio 2014.
JANKOWSKI, N. W. Exploring e-Science: an introduction. Journal of ComputerMediated Communication, v. 12, n. 2, p. 549–562, January 2007.
ISA COMMONS. Isa-Tab. Disponível em: <http://isacommons.org/>. Acesso em: 10 jul.
2014.
NATURE PUBLISHING GROUP. Disponível em:
<http://www.nature.com/ng/journal/v44/n2/fig_tab/ng.1054_F2.html>. Acesso em: 15
jul.2014.
3341
Openaire. What is an Enhanced Publication? Disponível
em:<https://www.openaire.eu/en/component/content/article/76-highlights/344ashortintroduction-to-enhanced-publications>. Acesso em: 6 dez. 2013.
RODRIGUES, Nelson de Almeida. Introdução ao METS: Preservação e Intercâmbio de
Objetos Digitais. Enc. Bibli: R. Eletr. Bibliotecon. Ci. Inf., n. 26, p. 1-16, 2008.
SANTOS, Plácida Leopoldina Ventura Amorim da Costa; SIMIONATO, Ana Carolina;
ARAKAKI, Felipe Augusto. Definição de metadados para recursos informacionais:
apresentação da metodologia BEAM. Inf. Inf., Londrina, v. 19, n. 1, p. 146 – 163, jan./abr.
2014. Disponível em: <file:///C:/Users/Adriana/Downloads/15251-73984-2PB%20(1).pdf>. Acesso em: 28 jul. 2014.
SALES, Luana Farias; SAYÃO, Luís Fernando; SOUZA, Rosali Fernandez Souza.
Publicações ampliadas: um novo modelo de publicação acadêmica para o ambiente de eScience. In: Encontro Nacional de Pesquisa em Ciência da Informação (ENANCIB), GT 8:
Informação e Tecnologia, 14, Florianópolis, 2013. Anais... Florianópolis: Ancib, 2013.
TENOPIR, Carol; ALLARD, Suzie; DOUGLASS, Kimberly; AYDINOGLU, Arsev Umur
et al. Data Sharing by Scientists: Practices and Perceptions. PLoS ONE, Volume 6, Issue
6, June 2011. Disponível em:
<http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0021101>.
Acesso em: 18 jun. 2014.
VERNOOY-GERRITSEN, Marjan (ed.). Emerging standards for enhanced publications
and repository technology: survey on technology. Amsterdam University Press. Driver
and Surf studies, 2009. Disponível em: <http://dare.uva.nl/cgi/arno/show.cgi?fid=150752>.
Acesso em: 2 dez.2013.
3342
ACESSIBILIDADE A INFORMAÇÃO: ANÁLISE DO WEBSITE DA FUNDAÇÃO
APOIO À PESSOA COM DEFICIÊNCIA
ACCESSIBILITY TO INFORMATION: ANALYSIS OF THE FOUNDATION OF SUPPORT
TO PERSON WITH DEFICIENCY
Célia Medeiros Dantas
Hellosman de Oliveira Silva
Resumo: Objetiva realizar análise de acessibilidade digital no Website da Fundação de
Centro Integrado de Apoio ao Portador de Deficiência (FUNAD) vinculada ao portal do
Governo do Estado da Paraíba. Tal análise tem como base os princípios da Arquitetura da
Informação, assim como seus sistemas integrantes (sistema de rotulação, sistema de
navegação, sistema de busca, sistema de organização), além da utilização da ferramenta de
avaliação Hera como forma de verificar a acessibilidade do referido Website. Referencia e
contextualiza os princípios da Arquitetura da Informação, além das características relativas
à acessibilidade, como forma de facilitar o acesso das pessoas com e sem deficiência aos
Websites. Neste aspecto, é realizada uma avaliação utilizando-se a ferramenta Hera, onde
ficam evidenciadas quais as intervenções necessárias para uma melhor compreensão das
necessidades informacionais dos usuários e a sociedade em geral, com sugestões de
melhorias. Diante da análise, constata-se a importância da construção de Websites com itens
de acessibilidade.
Palavras-chave: Pessoa com Deficiência. Arquitetura da Informação. Acessibilidade.
FUNAD. Interação humano-computador.
Abstract: Aims to perform digital accessibility analysis of the Website of the Integrated
Centre Foundation of Support to Person Bearer Deficiency (FUNAD) linked to the
Government portal of the State of Paraiba. Such analysis is based on the principles of
information architecture, as well as its integral systems (labelling system, navigation
system, search system, organization system), in addition to the use of the Hera accessibility
tool as a way of checking the accessibility of this Website. References and contextualizes
the principles of information architecture, in addition to the characteristics relating to
accessibility, in order to facilitate the access of people with and without disabilities to
Websites. In this regard, an assessment is carried out using the Hera tool, where they are
shown which interventions necessary for a better understanding of user’s informational
needs and society in general, with improvements suggestions. On the analysis, noted the
importance of building Websites with items of digital accessibility in order to provide
adequate access to information by all users regardless of their conditions.
Keywords: Person with deficiency. Information architecture. Accessibility. FUNAD.
Human-computer interaction.
1 INTRODUÇÃO
A Ciência da Informação é uma área do conhecimento que tem em sua gênese o
objetivo de atender as necessidades sociais de informação, independentemente do formato
em que estão estocadas e disponíveis. Dessa forma, esta deve servir como base para o
desenvolvimento de políticas de inclusão social, apontando para várias discussões e
reflexões sobre os benefícios trazidos pelas Tecnologias de Informação e Comunicação.
3343
Neste panorama é que se insere a discussão sobre as formas de inclusão e a
acessibilidade à informação para as pessoas com deficiência, criando necessidades impostas
pela própria evolução da sociedade, reforçando uma discussão sobre a conjuntura de
exclusão deste segmento, num país de desigualdades históricas.
Assim como a Ciência da Informação, outras áreas, tais como Biblioteconomia,
Computação, Arquivologia, que possuem como objeto de estudo a informação, tem voltado
os olhares para a aplicação de novos conhecimentos, principalmente no que diz respeito à
melhor forma de armazenar e recuperar as informações sempre que requisitada pelos
usuários.
Nesse sentido, em um ambiente considerado cada vez mais moderno, há uma maior
predisposição do homem em assimilar e aplicar as tecnologias em seu dia a dia. Essa
realidade também é notável para aquelas pessoas que apresentam deficiências, independente
da mesma ser temporária ou permanente. Todavia, em contrapartida percebe-se que as
instituições, sejam elas de cunho público ou privado, não permitem que os usuários com
deficiência possam transitar sem nenhuma interrupção durante a navegação em seus
Websites sem sofrer algum empecilho.
Segundo Assmann (2000), a sociedade contemporânea denomina-se de sociedade da
informação devido à acentuada presença e do uso intensivo das tecnologias da informação e
comunicação. Para o referido autor a sociedade da informação é
a sociedade que está atualmente a constituir-se, na qual são amplamente
utilizadas tecnologias de armazenamento e transmissão de dados e
informação de baixo custo. Esta generalização da utilização da informação
e dos dados é acompanhada inovações por inovações organizacionais,
comerciais, sociais e jurídicas que alterarão profundamente o modo de
vida tanto no mundo do trabalho como na sociedade em geral
(ASSMANN, 2000, p. 8).
Por sua vez, percebe-se atualmente uma crescente valorização da informação e do
conhecimento proporcionado e disseminado pelas tecnologias que, quando utilizadas
eficientemente, permitem mesmo para aqueles públicos que possuem algum tipo de
deficiência uma autonomia para suas buscas informacionais.
Quanto aos tipos de deficiências, o Decreto Federal de nº 5296/2004 em seu artigo
5º afirma que:
- Deficiência física- alteração completa ou parcial de um ou mais segmentos do
corpo humano, acarretando o comprometimento da função física, apresentando-se sob a
forma de paraplegia, paraparesia, monoplegia, monoparesia, tetraplegia, tetraparesia,
triplegia, triparesia, hemiplegia, hemiparesia, ostomia, amputação ou ausência de membro,
3344
paralisia cerebral, nanismo, membros com deformidade congênita ou adquirida, exceto as
deformidades estéticas e as que não produzam dificuldades para o desempenho de funções;
- Deficiência auditiva- perda bilateral, parcial ou total, de quarenta e um decibéis
(dB) ou mais, aferida por audiograma nas frequências de 500HZ, 1.000HZ, 2.000Hz e
3.000Hz;
- Deficiência visual- cegueira, na qual a acuidade visual é igual ou menor que 0,05
no melhor olho, com a melhor correção óptica; a baixa visão, que significa acuidade visual
entre 0,3 e 0,05 no melhor olho, com a melhor correção óptica; os casos nos quais a
somatória da medida do campo visual em ambos os olhos for igual ou menor que 60, ou a
ocorrência simultânea de quaisquer das condições anteriores;
- Deficiência mental- funcionamento intelectual significativamente inferior à
média, com manifestação antes dos dezoito anos e limitações associadas a duas ou mais
áreas de habilidades adaptativas, tais como: Comunicação; Cuidado pessoal; Habilidades
sociais; Utilização dos recursos da comunidade; Saúde e segurança; Habilidades
acadêmicas; Lazer; e Trabalho;
- Deficiência múltipla- associação de duas ou mais deficiências.
Corroborando com este contexto, a Convenção Internacional dos Direitos da Pessoa
com Deficiência, assinada por diversos países e promulgada pelo Congresso Nacional do
Brasil com força de norma constitucional em 2009, garante às pessoas com deficiência a
liberdade de expressão e de opinião e acesso à informação, respeitando-se o direito de
cada pessoa em escolher ou exercer com autonomia o método de comunicação de sua
preferência, assegurando-lhe o desenvolvimento de todas as suas capacidades para a vida
independente.
De modo geral, as dificuldades e barreiras existentes para o pleno exercício da
cidadania por parte das pessoas com deficiência são muitas, principalmente no que diz
respeito ao acesso eficiente da informação em meio digital, uma vez que os Websites não se
encontram aptos para atender as necessidades informacionais deste segmento da sociedade.
Este estudo avalia, através da ferramenta Hera, o Website da Fundação Centro
Integrado de Apoio à Pessoa Portadora de Deficiência – FUNAD, pertencente ao Governo
do Estado da Paraíba e de acordo com a Lei Estadual nº 5.208 de Dezembro de 1989 tem
como principais atividades:
•
O Planejamento e a coordenação, a nível estadual, a reabilitação das pessoas com
deficiências;
3345
•
Dar assistência às pessoas com deficiência física, intelectual, visual, auditiva e
múltipla visando ao desenvolvimento de suas potencialidades;
•
Efetivação de convênios, acordos, contratos e ajustes com entidades públicas ou
privadas, nacionais, e estrangeiras que objetivem a realização das pessoas com
deficiência;
•
A formação de pessoal técnico especializado e gestores sobre políticas de inclusão.
Para a análise metodológica do Website da FUNAD, foi utilizado o aporte teórico
encontrado na área de Arquitetura da Informação, bem como a utilização da ferramenta
automática de avaliação Hera para conteúdo web 1.0 que é recomendada por utilizar as
diretrizes de acessibilidade internacional WCAG 1.0 (Web Content Acessibility Guidelines).
Os itens de acessibilidade na web recomendados pelo WCAG 1.0 são os mais discutidos
mundialmente, servindo em grande maioria, como padrão para desenvolvimentos de
páginas web acessíveis em todo o mundo. A ferramenta de avaliação Hera foi escolhida por
facilitar a revisão manual e permitir modificar os resultados automáticos, gerando um
relatório final sobre a revisão. Ressalta-se que a ferramenta Hera, segundo sua característica
foi desenvolvida para trabalhar exclusivamente com as diretrizes do WCAG 1.0.
2 ELEMENTOS DA ARQUITETURA DA INFORMAÇÃO
A construção adequada de Websites82 e blogs para as pessoas com deficiência
perpassam pelo planejamento de ambientes informacionais inclusivos. Para facilitar a
acessibilidade, a sua construção deve seguir os princípios da Arquitetura da Informação
(AI). Portanto, a AI surge como base conceitual e tecnológica capaz de apresentar
elementos eficazes ao acesso e uso com autonomia e independência de usuários com ou
sem deficiência.
Em linhas gerais acredita-se que os Arquitetos da Informação têm como objetivo
principal estruturar a informação em meio digital de tal modo, que o próprio Website seja
autoexplicativo, mesmo para aqueles que nunca o visitaram e, principalmente, que
permitam a eficiência quanto à recuperação da informação por parte dos usuários,
independentemente de suas condições. Nessa mesma linha de pensamento Mattos (2010, p.
91) revela que o arquiteto da informação tem como função “apresentar a informação por
82
Website, Site (sitio eletrônico) pode ser compreendido como um conjunto de páginas web, isto
é, de hipertextos acessíveis geralmente pelo protocolo HTTP na internet. Dicionário escolar
da língua portuguesa/Academia Brasileira de Letras. 2. ed. São Paulo: Companhia Editora
Nacional, 2008, p. 1187.
3346
princípios sistemáticos e estruturados (daí o nome ‘arquitetos’), geralmente por meios
visuais, de forma clara e facilmente compreensível, ou de uma maneira totalmente nova”.
Toub (2000) afirma que a arquitetura da informação é a arte e a ciência de estruturar
e organizar ambientes de informação para ajudar as pessoas a satisfazerem suas
necessidades de informação de forma efetiva. Nessa perspectiva, percebe-se que a
Arquitetura da Informação não pode ter sua imagem vinculada a apenas uma ciência em
que necessita de um profissional da área formado para articular as informações nos
Websites, mas é uma sensibilidade em que o arquiteto da informação constrói uma ponte
entre a informação a ser disposta, o contexto em que essas informações estão inseridas e os
usuários a quem se destinam essas informações.
Nesse contexto, Morville e Rosenfeld (2006) garantem que a essência da AI consiste
em compreender e atender a três dimensões de variáveis: os usuários, as características do
conteúdo e a especificidade do contexto de uso. De fato, verificar qual conteúdo é relevante
para o usuário e o dispor de forma fácil, relacionando o contexto em que a informação está
inserida e na forma como tais informações serão dispostas, tanto no que diz respeito à
estética do Website como da clareza como se apresentam a informação, são pontos cruciais
para o sucesso ou fracasso do mesmo.
Todavia, como constata Sousa (2012) a construção de Websites tende a seguir a
visão do que os projetistas admitem como ideal e que, por essa razão, não levam em
consideração as limitações existentes no público alvo, assim como suas preferências, além
da falta de normatização de cores, formas, dentre outras características.
Já com um ponto de vista pragmático, Nielsen (2000) considera que a arquitetura da
informação de um Website deve ser estruturado para espelhar as tarefas e as visões do
espaço de informação ao usuário. De tal modo, o objetivo dos projetos de ambientes na
internet deve ser facilitar o desempenho dos usuários em suas tarefas, pois um Website mal
projetado dificultará a interação do usuário como o sistema informacional, que possui uma
grande quantidade de opções e de facilidades. Muitos ambientes informacionais digitais são
criados por meio de linguagem HyperText Markup Language (HTML)83, sendo primordial
seu mapeamento quanto a área e o tipo de uso, tipos de documento (imagens, vídeos, textos,
sons), distribuição das informações na página (frames), conteúdo expressivo para o públicoalvo a que se destina.
Neste sentido, Straioto (2002, p. 20) afirma que:
83
HTML – Hypertext Markup Language, linguagem, na qual se baseia grande parte da
programação de websites para a Internet.
3347
A arquitetura da informação refere-se ao desenho das informações: como
textos, imagens e sons são apresentados na tela do computador, a
classificação dessas informações em agrupamentos de acordo com os
objetivos do site e das necessidades do usuário, bem como a construção de
estrutura de navegação e de busca de informações, isto é, os caminhos que
o usuário poderá percorrer para chegar até a informação.
Camargo (2004), por sua vez, considera a arquitetura da informação como um dos
fatores importantes na construção de qualquer modelo de Website, determinando o design, a
disposição do conteúdo e a estratégia de navegação do usuário. A autora denota que na
elaboração de uma interface o desenvolvedor deve se preocupar com o conteúdo que será
inserido e como isso será adicionado à página. Tais aspectos podem auxiliar o
desenvolvedor e o usuário a organizarem e estruturarem grandes quantidades de
informações e envolver o atendimento às necessidades informacionais de seus usuários na
interação humano-computador.
Morville e Rosenfeld (2006) delineiam os sistemas independentes que compõem a
AI, sendo eles: Sistema de Navegação, no qual aponta as formas de navegação e o percurso
pelo ambiente informacional; Sistema de Organização, que determina o agrupamento e a
categorização do conteúdo informacional; Sistema de Rotulação, que estabelece as formas
de representação, de apresentação da informação, definindo signos iconográficos ou
textuais para cada elemento informativo; e Sistemas de Busca que determinam as perguntas
que o usuário pode fazer e o conjunto de respostas que este irá obter, apoiados pelas
estruturas de representação da informação.
Portanto, planejar ambientes informacionais digitais envolve tanto os sistemas de
organização, navegação, rotulação e busca aptos a aplicação dos princípios de
acessibilidade para pessoas com deficiência, como o conteúdo dos documentos em
diferentes formatos, relacionados a aplicações que possuam recursos e compatibilidade com
hardware e software, que possibilite a interação adequada entre sistema e usuário.
2.1 Acessibilidade à informação em ambientes informacionais digitais
Inicialmente, o termo acessibilidade estava restrito à aplicação ao ambiente
construído e assinalava a eliminação de barreiras arquitetônicas. Pouco a pouco, esse
sentido compreendeu outros campos do fazer humano; passamos, então, a pensar sobre a
acessibilidade nas diversas áreas do convívio social como na educação, no trabalho, lazer,
cultura, esportes, informação, entre outras. A ideia da acessibilidade neste estudo é
possibilitar que o usuário com deficiência, independentemente de suas condições ou
questões adversas, possa acessar a informação com qualidade e eficácia, traduzida no
correspondente êxito na realização de suas tarefas.
3348
Em linhas gerais, a Acessibilidade significa “permitir que pessoas com deficiências
ou mobilidade reduzida participem de atividades que incluem o uso de produtos, serviços e
informação”.84
Para Torres, Mazzoni e Alves (2002) a acessibilidade é um processo dinâmico, que
se associa ao desenvolvimento da tecnologia e da sociedade em estágios distintos, variando
de uma sociedade para outra, conforme a atenção dispensada à diversidade humana e à
época em que se encontra.
Assim, pode-se afirmar que, no que se refere à pessoa com deficiência, a garantia e a
obtenção das condições de acessibilidade significa o processo de conseguir a equiparação
de oportunidades. Portanto, a acessibilidade num contexto geral e especificamente, no que
se refere à informação, favorece a participação social das pessoas com deficiência, e
expressam políticas inclusivas.
De acordo com o Website Acessibilidade Brasil, o conceito de acessibilidade
representa para o nosso usuário não só o direito de acessar a rede de
informações, mas também o direito de eliminação de barreiras
arquitetônicas, de disponibilidade de comunicação, de acesso físico, de
equipamentos e programas adequados, de conteúdo e apresentação da
informação em formatos alternativos (ACESSIBILIDADE BRASIL,
2014).
Na verdade, o propósito da acessibilidade é facilitar o direito do cidadão com ou
sem deficiência, em obter o acesso à informação de modo a diminuir as dificuldades
existentes sejam eles por meios físicos ou digitais.
Já para Conforto e Santarosa (2002, p. 21) a acessibilidade à Website é:
[...] como sinônimo de aproximação, um meio de disponibilizar a cada
indivíduo interfaces que respeitem suas necessidades e preferências [...].
Muitas vezes as discussões sobre acessibilidade ficam reduzidas às
limitações físicas ou sensoriais dos sujeitos com necessidade especiais,
mas esses aspectos podem trazer benefícios a um número bem maior de
usuários, permitindo que os conhecimentos disponibilizados na Web
possam estar acessíveis a uma audiência muito maior, sem com isso,
prejudicar suas características gráficas ou funcionais.
Dias (2003) afirma que a acessibilidade na Website significa que qualquer pessoa,
com qualquer tipo de tecnologia de navegação seja capaz de interagir com qualquer
Website, e compreenda inteiramente as informações nele apresentadas.
Neste estudo, a acessibilidade está voltada para as condições de uso, com o usuário
com ou sem deficiência se apresenta frente às interfaces, como essa troca deve acontecer, e,
84
Acesso a Informação, Disponível em: <http://www.acessoainformacao.gov.br/acessibilidade>.
Acesso em: 20 jul. 2014.
3349
principalmente, como se dará o acesso destas pessoas às informações disponíveis. Ponderase, portanto, que as barreiras que dificultem o acesso à informação e a comunicação estejam
diretamente relacionadas à ausência de elementos de acessibilidade, tratamento inadequado
das informações e/ou incoerência na construção das interfaces.
3 CONSTRUÇÃO METODOLÓGICA DA PESQUISA
O uso da internet para disseminar informação é cada vez maior nos dias atuais,
possibilitando o acesso a uma gama de conteúdos e serviços, de forma rápida e dinâmica.
No entanto, a forma como esses conteúdos são disponibilizados afetam diretamente seu
acesso.
A acessibilidade na Web tem como objetivo assegurar o acesso à informação a todos
os segmentos de usuários, independentemente da deficiência, fazendo com que as
tecnologias de informação e comunicação possam atingir de fato toda a sua potencialidade.
O princípio básico desse conceito é projetar ferramentas que sejam flexíveis e
possam atender a diferentes necessidades, preferências e situações do usuário, permitindo
que pessoas com deficiência possam ser independentes ao usarem a internet, facilitando seu
uso e, respectivamente, permitindo que o acesso aos diversos Websites e blogs.
Conquanto, é crucial não apenas a conscientização de desenvolvedores de Websites,
mas, principalmente, dos gestores governamentais, para que exijam acessibilidade nos
Websites institucionais.
Segundo a World Wide Web Consortium (W3C), principal entidade global que trata
sobre acessibilidade digital, deve-se considerar algumas dificuldades que poderão ser
apresentadas pelas pessoas com deficiência no acesso as tecnologias de informação e
comunicação. Dentre elas os usuários podem: não serem capazes de visualizar, ouvir,
movimentar, assim como não ter acesso a certas informações com eficiência; apresentar
dificuldade quanto a leitura e compreensão dos textos expostos no Website; ter dificuldades
na utilização de mouse e teclado; possuir tela para leitura de texto de pequena dimensão,
assim como uma conexão de internet lenta; não compreender ou expressar fluentemente a
língua no qual o documento foi produzido; existir barreiras visuais, sonoros, motoras
adversas que impedem ou interfere no acesso as informações (W3C, 2014).
Fundamentados nestes aspectos do W3C, foram desenvolvidas ferramentas para
avaliar o nível de acessibilidade digital, sendo essas ferramentas denominadas de
avaliadores automáticos de acessibilidade. Essas ferramentas verificam o código HTML e
analisam seu conteúdo, verificando se está ou não de acordo com o conjunto de parâmetros
pré-estabelecidos; após esta etapa, elas fornecem relatórios com uma série de problemas
3350
encontrados, que devem ser corrigidos para que o Website ou Blog possa ser considerado
com acessibilidade.
Metodologicamente,
esta
pesquisa
analisou
o
Website
da
FUNAD
(http://www.funad.pb.gov.br) que possui conteúdos informacionais voltados para o
segmento das pessoas com deficiência no Estado da Paraíba, fazendo um levantamento das
características de acessibilidade através da ferramenta automática de avaliação de
acessibilidade – Hera (http://www.sidar.org/hera). Essa ferramenta possibilita a revisão de
acessibilidade das páginas Web de acordo com as recomendações das Diretrizes de
Acessibilidade para o Conteúdo Web 1.0 (WCAG 1.0) que são as seguintes:
1. Fornecer alternativas equivalentes ao conteúdo sonoro e visual;
2. Não confiar só na cor;
3. Usar marcação e folhas de estilo e fazê-lo corretamente;
4. Esclarecer o uso de linguagem natural;
5. Criar tabelas passíveis de transformação em conformidade;
6. Assegurar que as páginas dotadas de novas tecnologias sejam transformadas em
conformidade;
7. Assegurar o controle do usuário de alterações de conteúdo sensível ao tempo;
8. Assegurar a acessibilidade direta de interfaces embutidas;
9. Projetar o dispositivo para independência;
10. Utilizar soluções provisórias;
11. Usar tecnologias W3C e suas diretrizes;
12. Fornecer contexto e orientações;
13. Fornecer mecanismos de navegação claros e objetivos;
14. Certificar-se de que os documentos são claros e simples.
Outra característica da ferramenta de validação Hera é fornecer um relatório de
qualidade e disponibilizar funcionalidades que permitem identificar claramente a
localização dos erros e recomendações no código fonte.
Os erros e avisos identificados nos Websites são classificados de acordo com o nível
de prioridade para o acesso a informação:
1. prioridades que devem ser satisfeitas inteiramente, pois impossibilitam o acesso à
informação;
2. prioridades que deveriam ser satisfeitas, pois causam dificuldades a usuários ou
grupo deles e;
3351
3. prioridades que poderiam ser satisfeitas, pois vão causar desconforto ou alguma
dificuldade a alguns usuários ou grupo deles. Após a análise automática, foram
destacados os principais pontos dos relatórios.
Sendo assim, com a avaliação pela ferramenta Hera ela possibilita um conteúdo
mais acessível no meio informacional digital. Ressaltamos que esta ferramenta, assim como
as outras ferramentas existentes para a avaliação quanto à acessibilidade do Website não
exclui a avaliação realizada com as pessoas com deficiência.
3.1 Descrição da análise realizada no Website da FUNAD através da ferramenta Hera
O Website da FUNAD encontra-se associado ao portal do Governo do Estado da
Paraíba na área classificada como indiretas. De acordo com análise feita, é possível
verificar que o mesmo apresenta um aspecto facilitador para o manuseio e que, por essa
razão, os usuários não teriam qualquer contratempo durante suas consultas.
Seguem na sequência, dispostos na FIG. 1, os resultados obtidos pela análise da
avaliação automática na ferramenta Hera.
FIGURA 1 – Estado dos pontos de verificação Hera
Fonte: http://www.sidar.org/hera/index.php.pt. Acesso em: 20 jul. 2014
Os erros estão listados de acordo com a ordem decrescente de suas prioridades,
citando as diretrizes e os pontos de verificação aos quais pertencem, bem como uma
solução para o erro apresentado. De acordo com a nossa visão, seguem na sequência os
principais erros diagnosticados pela ferramenta Hera, assim como prioridades, pontos de
verificação e a contextualização da solução.
Diretriz: 1 - Proporcione alternativas para os conteúdos das pessoas com deficiência visual
e auditiva.
Prioridade: 1
Ponto de Verificação 1.1: “Forneça um equivalente textual para todo o elemento não
textual. Pode ser feito através do atributo "alt", ou "longdesc" ou no conteúdo do elemento.
Isto abrange: imagens, representações gráficas de texto, incluindo símbolos, regiões de
3352
mapas de imagem, animações, como é o caso dos GIFs animados, applets e objetos
programados, arte ASCII, painéis/frames, programas interpretáveis, imagens utilizadas em
listas como sinalizadores de pontos de enumeração, espaçadores, botões gráficos, sons
(reproduzidos com ou sem interação do utilizador), ficheiros de áudio independentes, pistas
áudio de vídeo e trechos de vídeo”.
Erro 1 - Imagens: Há 1 imagens sem textos alternativos. Também há 18 imagens que
contêm o atributo "alt". Deve verificar se os textos alternativos resultam adequados.
Solução: Cada imagem necessita obrigatoriamente do atributo "alt" com um texto que lhe
sirva de legenda, nomeadamente que indique a sua função. Se o atributo "alt" resulta
insuficiente, devido à complexidade da imagem, deve-se utilizar o atributo "longdesc" para
especificar um endereço URL que contenha uma descrição detalhada da imagem. Nestes
casos, é conveniente proporcionar também um link textual que leve ao mesmo arquivo que
se indica no "longdesc" (usualmente o texto do link consiste numa letra "D" posicionada do
lado direito da imagem).
Erro 2 - Elementos embutidos: Há 1 elementos <embed> e não existe nenhum elemento
<noembed> na página.
Solução: Por cada elemento <embed> deve existir também um elemento <noembed> com
um conteúdo alternativo que descreva adequadamente a sua ação ou substitua a sua função.
Todavia, com base nas análises da arquitetura da informação e acessibilidade, de
acordo com a FIG. 2, é possível constatar algumas barreiras que serão explicitadas com a
avaliação feita na ferramenta Hera.
FIGURA 2 – FUNAD – resumo de análise automática do avaliador Hera
Fonte: http://www.funad.pb.gov.br. Acesso em: 07 jul. 2014
3353
Diretriz: 3 - Utilize marcadores e folhas de estilo e faça-o apropriadamente.
Prioridade: 2
Ponto de Verificação 3.2: “Crie documentos validando a notação com a gramática formal
publicada”.
Erro - CSS: O código das folhas de estilo contém erros.
Solução: HERA utiliza os serviços do revisor de CSS do W3C para verificar a sintaxe das
folhas de estilo. Se o resultado for indefinido, utilize o icone para abrir a página do revisor.
Diretriz: 3 - Utilize marcadores e folhas de estilo e faça-o apropriadamente.
Prioridade: 2
Ponto de Verificação 3.3: “Use folhas de estilo para controlar a disposição dos elementos
na página e a forma de apresentá-los”.
Erro 1 - Elementos de apresentação: Utilizam-se 1 elementos HTML para controlar a
apresentação.
Solução: Verifique que não se utilizam elementos como <b>, <center> ou <font>, por
exemplo, para controlar a apresentação da página.
Erro 2 - Propriedades de apresentação: Utilizam-se 22 atributos HTML para controlar a
apresentação.
Solução: Verifique que não se utilizam atributos de apresentação como "color", "bgcolor"
ou "face", por exemplo.
Diretriz: 6 - Assegure-se de que as páginas que usam tecnologias emergentes se
transformam corretamente.
Prioridade: 2
Ponto de Verificação 6.4: “No caso dos scripts e dos applets, certifique-se que os eventos
que o manipulam funcionam independentemente do dispositivo de entrada.”
Erro - Manipuladores de evento: Utilizam-se eventos dependentes do dispositivo e não
existem eventos redundantes.
Solução: Os eventos devem poder ativar-se quer com o rato quer com o teclado. Por isso
devem existir manipuladores de evento independentes do tipo de dispositivo ("onfocus",
"onblur", "onselect") ou redundantes para o tipo de dispositivo (se se indica
"Onmousedown" deve indicar-se também "Onkeydown", se "onmouseup" também
"onkeyup", se "onclick" também "onkeypress").
3354
Diretriz: 9 - Desenhe tendo em conta diversos dispositivos.
Prioridade: 2
Ponto de Verificação 9.3: “No caso dos scripts, especifique manipuladores de eventos por
software em vez de manipuladores de eventos dependentes de dispositivos”.
Erro - Manipuladores de evento: Utilizam-se eventos dependentes do dispositivo.
Solução: Destacam-se os elementos que respondem a eventos dependentes do dispositivo,
aqueles que são independentes do dispositivo e os que não podem ser emulados através do
teclado. Deveriam utilizar-se sempre manipuladores de evento lógicos (i.e. baseados no
software).
Diretriz: 10 - Utilize soluções provisórias.
Prioridade: 2
Ponto de Verificação 10.2: “Até que os agentes do utilizador suportem associações
explicitas entre os rótulos e os controles de formulário, para todos os controles com rótulos
implicitamente associados, certifique-se que os rótulos se encontram apropriadamente
posicionados”.
Erro - Etiquetas: Há 4 controles de formulário que devem levar etiquetas mas apenas
existem 3 elementos "label".
Solução: Destacam-se as etiquetas e controles de formulário que necessitam dessas
etiquetas. Verifique que o atributo "for" de label coincide com o "id" do controle de
formulário. As etiquetas devem aparecer à esquerda ou na linha imediatamente anterior aos
campos de edição e à direita ou na linha imediatamente posterior às casas de verificação ou
quadros de seleção.
Diretriz: 11 - Utilize as tecnologias e diretrizes do W3C.
Prioridade: 2
Ponto de Verificação 11.1: “Use tecnologias W3C quando a mesma esteja disponível e
seja apropriada para uma tarefa. Utilize as versões mais recentes, desde que suportadas”.
Erro - Tecnologias do W3C: Utilizam-se elementos que não correspondem às tecnologias
do W3C.
Solução: Destaca-se a DTD (caso exista) e os elementos que evidenciam o uso de folhas de
estilo.
3355
Diretriz: 12 - Proporcione informação contextual e de orientação.
Prioridade: 2
Ponto de Verificação 12.4: “Associe explicitamente os rótulos aos respectivos controles”.
Erro - Etiquetas: Faltam etiquetas para alguns controles.
Solução: Destacam-se os atributos considerados em desuso na versão HTML 4.01. (e logo,
também, em XHTML).
Diretriz: 9 - Desenhe tendo em conta diversos dispositivos.
Prioridade: 3
Ponto de Verificação 9.5: “Defina teclas de atalho para links importantes (incluindo os que
se encontram nos mapas de imagem client-side), controles de formulário, e grupos de
controles de formulários”.
Erro - Atalhos de teclado: Não se proporcionam atalhos de teclado.
Solução: Destacam-se os elementos com o atributo "accesskey".
3.2 Resultados obtidos com a avaliação da ferramenta Hera
Fazendo uma menção sobre a análise e avaliação com a utilização do avaliador
Hera, identifica-se que os principais erros de acessibilidade do Website da FUNAD giraram
em torno de problemas como, a necessidade de fornecer um equivalente textual para cada
imagem disposta na página (incluindo representações gráficas do texto, símbolos, gifs
animadas, imagens utilizadas como sinalizadores, pontos de enumeração, botões gráficos e
espaçadores).
Isso é importante porque para uma pessoa com deficiência acessando o Website,
fazendo uso de um leitor de tela, sem esse equivalente textual, não será possível identificar
do que trata a imagem e esta poderá deixar de receber a informação que deseja.
Um evento observado nesta análise referente ao avaliador Hera foi o de que, ao
mostrar os resultados obtidos, seus resultados ele nem sempre expressam uma explicação
clara e objetiva para os erros assinalados. Entretanto, o problema principal trata-se do fato
avaliador restringir-se a uma verificação da sintaxe do Website, delimitando-se
simplesmente a analisar as diretrizes do WCAG, apresentando uma lista de não
conformidade com os padrões de acessibilidade na web.
Outro problema é que os ambientes informacionais digitais não identificaram o
principal idioma utilizado em suas páginas. Em termos dos avisos, destacam-se o fato de
que é necessário assegurar que toda informação provida com ‘cor’ possa ser visualizada
3356
também ‘sem cor’, onde é necessário verificar a combinação de cores entre fundo e
primeiro plano para evitar cores discrepantes que causem ilusão de ótica ou que tragam
problemas para pessoas que sofrem de daltonismo. Nesse sentido, é necessário criar uma
sequencia lógica de tabulação para percorrer os itens de formulário, para que possam ser
percorridos com o uso do teclado.
Como foi possível verificar, as barreiras informacionais constatado no Website da
FUNAD são de fácil solução, mas que sua existência dificulta o acesso por parte dos
usuários assistidos na própria fundação. Por essa razão, se tal instituição tem como
propósito habilitar, assim como reabilitar e profissionalizar as pessoas com deficiência para
o mercado de trabalho é de se esperar que seu Website permita o acesso sem qualquer
barreira de acessibilidade.
4. CONSIDERAÇÕES FINAIS
Essa pesquisa realizada tem como enfoque principal não apenas constatar as
barreiras informacionais apresentadas no Website da FUNAD para a comunidade, mas
apresentá-las aos próprios gestores da fundação com vista em favorecer o desenvolvimento
de ambientes informacionais digitais com acessibilidade. Nesse aspecto, no ano de 2013,
durante evento realizado na própria fundação denominado “II Seminário Técnico Científico
- FUNAD” foi apresentado os primeiros resultados sobre a avaliação com base na literatura
da Arquitetura da Informação, onde o corpo diretivo da instituição mostrou-se disposto a
executar as modificações para contribuir na disseminação da informação digital para os
usuários e toda a sociedade.
Considera-se com esta pesquisa, que o acesso ao ciberespaço pelas pessoas com
deficiências se depara em barreiras existentes principalmente na concepção dos Websites.
Na sua maioria este artefato de informação é construído exclusivamente por profissionais
da área de computação, que priorizam os aspectos técnicos e não seu uso e acesso.
Entretanto, os métodos e ferramentas de avaliação que envolve diretamente as pessoas com
deficiência são necessários para qualidade e implantação dos sistemas. É importante
ressaltar que ambas as avaliações, a automática e com o usuário com deficiência se
complementam.
Portanto, o acesso à informação é um processo amplo, que transcorre pela
incorporação do uso da acessibilidade na web pelos cidadãos com ou sem deficiência e, não
apenas pelas questões de conhecimentos e habilidades necessárias para a utilização dos
recursos disponibilizados, contribuindo para sua inserção nos espaços sociais e
consequentemente na construção de sua cidadania. Fundamental, será a transformação
3357
destas pessoas em indivíduos independentes, que constroem seus conhecimentos de forma
individual, contribuindo para o conhecimento coletivo, a partir da análise e da
transformação das informações, com ressignificação do paradigma informacional.
Neste sentido, a acessibilidade à informação caracteriza-se como capaz de
possibilitar a inclusão digital de segmentos sociais excluídos da Sociedade da Informação.
Acreditamos que os desenvolvedores de websites, analisem o contexto de implantação
destes ambientes para promover a inclusão dos diversos tipos de usuários, dentre os quais as
pessoas com deficiência e suas complexidades, diante dos espaços sociais nos quais estão
inseridos.
A inserção social das pessoas com deficiência as tecnologias de informação e
comunicação deve ser efetivada de forma autônoma e independente com condições
ampliadas de acesso e uso a internet, assim como dos demais usuários potenciais que
podem atender,independente de suas condições físicas, sensoriais e cognitivas.
REFERÊNCIAS
ACESSIBILIDADE BRASIL. O que é acessibilidade. 2014. Disponível em:
<http://www.acessobrasil.org.br>. Acesso em: 29 jul. 2014.
ASSMANN, H. A metamorfose do aprender na sociedade da informação. Ciência da
informação, Brasília, v. 29, n. 2, p. 7-15, 2000.
BRASIL. Acesso a Informação. Novo modelo de identidade digital padrão do governo
federal atende às principais recomendações de acessibilidade indicadas para web. 2014.
Disponível em: <http://www.acessoainformacao.gov.br/acessibilidade>. Acesso em: 20 jul.
2014.
BRASIL. Decreto Nº 5.296, de 02 de dezembro de 2004. Disponível em:
<http://www.planalto.gov.br/ccivil_03/_ato2004-2006/2004/decreto/d5296.htm>. Acesso
em: 23 jul. 2014.
BRASIL. Decreto nº 6.949, de 25 de Agosto de 2009. Promulga a Convenção
Internacional sobre os Direitos das Pessoas com Deficiência e seu Protocolo Facultativo,
assinados em Nova York, em 30 de março de 2007. Disponível em:
<http://www.planalto.gov.br/ccivil_03/_ato2007-2010/2009/decreto/d6949.htm> Acesso
em: 13 jan. 2013.
CAMARGO, L. S. A. Arquitetura da Informação para biblioteca digital
personalizável. 2004. 142 f. Dissertação (Mestrado em Ciência da Informação) - Faculdade
de Filosofia e Ciências, Universidade Estadual Paulista, Marília.
CONFORTO, D. SANTAROSA, L. M. C. Acessibilidade à Web: Internet para todos.
Revista de Informática na Educação: Teoria, Prática, Rio Grande do Sul, v.5, n. 2, p. 0121, 2002.
DIAS, C. Usabilidade na web: criando portais mais acessíveis. Rio de Janeiro: Alta Books,
2003.
3358
MATTOS, A. N. Informação é prata, compreensão é ouro: um guia para todos sobre
como produzir e consumir informação na Era da Compreensão. [S.l.: s. n.], 2010.
MORVILLE, P.; ROSENFELD, L. Information Architecture for the World Wide Web.
O`Reilly Media, 2006.
NIELSEN, J. Projetando Websites. Rio de Janeiro: Campus, 2000.
PARAÍBA. Lei nº 5.208, de dezembro de 1989. Autoriza o Poder Executivo a instituir a
Fundação Centro Integrado de Apoio ao Portador de Deficiência (FUNAD) e dá outras
providências. Disponível em:
<http://www.asdef.com.br/innova/assets/leiestadual/5208criacaofunad.pdf>. Acesso em: 20
ago. 2014.
STRAIOTO, F. A Arquitetura da Informação para a World Wide Web: um estudo
exploratório. 2002. 120f. Dissertação (Mestrado em Ciência da Informação) - Faculdade de
Filosofia e Ciências, Universidade Estadual Paulista, Marília.
SOUSA, M. R. F. O Acesso a Informações e a Contribuição da Arquitetura da Informação,
Usabilidade e Acessibilidade. Informação & Sociedade, João Pessoa, v. 22, p. 65-76,
2012.
TORRES, E. F., MAZZONI, A. A. e ALVES, J. B. M. A Acessibilidade à Informação no
Espaço Digital. Ciência da Informação, Brasília, v. 31, n.3, p.83-91, 2002.
TOUB, S. Evaluating Information Architecture: A practical guide to assessing Website
organization, 2000.
W3C. World Wide Web Consortium, 2014. Disponível em: <http://www.w3.org>.
Acesso em: 29 jul. 2014.
3359
UMA FERRAMENTA PARA RECUPERAÇÃO DE TAGS DE BLOGS BASEADA
EM MICROFORMATOS
A TOOL TO RECOVER TAGS OF BLOGS BASED ON MICROFORMATS
Célio Andrade Santana Júnior
Nilton Heck Santos
Resumo: O objetivo deste trabalho é apresentar a ferramenta Microgisbone que realiza a
recuperação da informação de blogs na Internet utilizando como referência o padrão de
microformato rel-tag. A ferramenta proposta tem como princípios (i) a adequação aos
padrões de Big Data, (ii) utilizar uma arquitetura de serviços escalável para que seja
possível utilizar computação em nuvem a partir de Infraestrutura como Serviços (IaaS) e
(iii) que esteja disponível como um serviço de informação a comunidade. Para validar o
funcionamento da ferramenta e escolher a arquitetura de dados foi realizado um
experimento utilizando um cenário real, blogs hospedados pelo wordpress.com, onde as
marcações (tags) foram coletadas por um período de 3 dias. Ao término deste experimento,
onde foram coletadas cerca de 6,6 milhões de tags, foram desenvolvidos alguns serviços de
informação, baseados nas marcações coletada. Foi observado que, de fato, um volume
relativamente grande de informação foi recuperado de uma quantidade pequena de blogs e
de um tipo de informação que é pequeno (marcações). Foi observado também padrão reltag dos microformatos tornam mais simples a identificação e recuperação das marcações
nos blogs por máquinas se comparados com os mecanismos formais de web-semântica.
Palavras-chave: Micro Formatos. Blogs. Marcações. Produtos de Informação.
Abstract: This paper aims to present Microgisbone tool that performs the retrieval of
information from Internet blogs using the standard rel-tag microformat. The proposed tool
has the following principles: (i) the adequacy of the standards of Big Data, (ii) use an
architecture for scalable services to be able to use cloud computing from Infrastructure as a
Service (IaaS) and (iii) that is available as an information service to the community. To
validate the tool efficacy and choose the data architecture we conducted an experiment
using a real scenario, blogs hosted by wordpress.com, where the tags were collected for a
period of 3 days. At the end of experiment, which were collected about 6.6 million tags,
some information services, were developed. It was observed that, in fact, a relatively large
volume of information was recovered from a small amount of blogs and a kind of
information that is small (tags). It was also observed pattern of rel-tag microformat simplify
the identification and retrieval of tags in blogs by machines compared to the formal
mechanisms of semantic-web.
Keywords: Microformats. Blogs. Tags. Information Products.
1 INTRODUÇÃO
O rompimento da bolha das empresas “.com”, no Outono de 2001, marcou um ponto
de transformação da Internet que não ocorreu apenas influenciou no paradigma tecnológico
vigente, mas principalmente, na forma como os negócio eram construídos na web
(O’REILLY, 2007). Esta ruptura no modo de produzir e consumir conteúdo atraiu a atenção
de profissionais e pesquisadores, levando à produção de ferramentas e pesquisas que
promoveram mudanças na Internet e transformaram naquilo em que conhecemos hoje. A
3360
percepção de uma evolução da Web, com base principalmente na maior interação entre
usuários, levou ao surgimento do termo “Web 2.0”, que representa a evolução dos produtos
e serviços na Internet (O’REILLY, 2007).
Esta nova versão da Web, quando comparada à sua predecessora, destaca-se pela
compreensão do ambiente digital como uma plataforma, isto pois, enquanto "a Web 1.0
limitava-se ao acesso e raras contribuição dos usuários” (MURUGESAN, 2007), enquanto a
Web 2.0 apresenta um modelo completamente novo, focado nas relações entre os indivíduos
e a sociedade digital. Por conta desta possibilidade de maior participação dos indivíduos,
esta também pode ser chamada de “Web da Sabedoria”, “Web Centrada nas Pessoas”, “Web
Participativa” ou “Read/Write Web” (MURUGESAN, 2007). De certo modo, se a Internet e
a Web 1.0 poderiam ser consideradas “a rede mundial de computadores”, então, a Web 2.0
pode receber a alcunha de “a rede mundial de pessoas”. (CASSANO, 2008).
O surgimento da Web 2.0 transformou o perfil de seus usuários que passaram de
passivos consumidores de conteúdo para produtores e consumidores de informação
(PETERS; STOCK, 2007). Nessa transformação, Berners-Lee (2007) destaca o papel os
blogs, uma vez que estes representam uma das ferramentas mais relevantes em colocar o
usuário no controle de sua própria produção.
O próprio Bernes-Lee criou, em 1992, a página “What is News” que é considerado o
primeiro blog, pelo menos da forma como o conhecemos hoje. Mas, apenas muito depois,
em 1999, o termo “blog” foi criado por Peter Merholz derivado do termo “web log” que se
tornou “we blog”. A popularização dos blogs foi quase instantânea tanto que em 2002, um
serviço de blogs chamado Blogger.com já apresentava mais de dez milhões de postagens
em suas páginas. (FU, 2007).
Linpton (2002) afirma que os blogs caracterizam-se pela organização cronológica de
suas publicações, dentro de uma estrutura onde, quase sempre, há somente uma página.
Alexander (2006) destaca a diferença implícita na retórica dos blogs, quando comparada à
sítios comuns na Web 1.0. A retórica mais pessoal, amplamente aplicada em blogs,
culminou no surgimento de um público alvo específico, impelindo ao surgimento de
práticas como o “Blogrolling”, que se trata de uma listagem de endereços de outros blogs
que o autor de um determinado blog recomenda e que formam uma espécie de rede de
interesse. Outro fenômeno observado foi a popularização da utilização de folksonomias na
organização do conteúdo digital, colocando o usuário no papel de arquiteto informacional.
O processo de utilização de folksonomias na indexação de conteúdo digital dentro
da Web 2.0 recebe o nome de etiquetagem, ou tagging (LUND et al., 2005; VANDER WAL,
3361
2006) e consiste na atribuição livre de termos para representação de uma publicação. Deste
modo, os termos atribuídos pelo autor (folksonomia estreita) ou pelos usuários
(folksonomia ampla) em uma publicação, tem a finalidade de representar que assunto está
sendo tratado naquele canal. A complexidade desta tarefa está expressas nos números, de
acordo com estatísticas do Wordpress (2014), cerca de 40,5 milhões de novas publicações
são realizadas todos os meses e mais de 409 milhões de pessoas leem publicações em blogs
hospedados/construídos por esta ferramenta mensalmente.
O fenômeno da descentralização do processo de indexação trazido pela
popularização da etiquetagem de recursos em blogs, que antes deveria ser feito,
teoricamente, por um profissional da informação e é agora atribuído ao usuário, trouxe um
grau considerável desorganização neste tipo de informação. Somado a isso o ambiente
amplamente fluido e dinâmico dos blogs e grande o volume de informação, e de pessoas,
que acessam esses serviços, tornou-se quase impossível recuperar conteúdo relevante nestes
canais. Hewitt (2005) afirma que muitos destes blogs ainda se encontram inacessíveis para
grande parte do público, particularmente para aqueles usuários que utilizam mecanismos de
busca.
Esta dificuldade de encontrar conteúdo relevante na Internet a partir de sistemas de
recuperação da informação (SRI), não foi percebido apenas nos blogs, mas em diversos
contextos que começaram a se tornar cotidianos na vida dos usuários de Internet tais como
informações pessoais, calendário, conexões sociais entre outros. Neste contexto surgiram os
microformatos, criados por Tantek Çelik com o intuito de tornar os itens de dados existentes
nas páginas da Internet reconhecíveis. A proposta é que esses elementos sejam passíveis de
processamento automatizado por agentes de software e que também sejam diretamente
legíveis por seres humanos (MENDEZ et al., 2008). Segundo Wharton (2005), a motivação
para a criação dos microformatos foi atender necessidades, primeiramente, dos seres
humanos e em segundo plano das máquinas.
A justificativa para este trabalho é que considerando as dificuldades encontradas
pelos SRI no tratamento e processamento de informações não-estruturadas em blogs na
web, em especial os meta-dados atribuídos pelos usuários a partir das etiquetas (tags), o
presente trabalho tem como objetivo apresentar a ferramenta MicroGisbone, elaborada para
obtenção automática de etiquetas em blogs a partir de marcações que utilizem o padrão de
microformatos. A ferramenta será avaliada a partir de um experimento onde será recuperada
estas informações de blogs reais hospedados em serviços que suportem os microformatos. A
3362
partir dos dados coletados, serão desenvolvidos alguns serviços de informação para
posterior uso.
Para uma melhor compreensão do contexto desta pesquisa, o presente trabalho
encontra-se dividido em cinco seções e além desta Seção introdutória, a Seção 2 apresenta a
fundamentação teórica que contempla os conceitos relacionados a esta pesquisa. A Seção 3
apresenta a ferramenta Microgisborne e seu processo de concepção. A Seção 4 apresenta o
experimento. Por fim, na Seção 5 serão apresentadas as considerações finais.
2 LITERATURA PERTINENTE
Antes do início da construção da ferramenta se fez necessária uma revisão da
literatura referente ao uso de etiquetas (tags) em blogs o uso de microformatos nestes
ambientes. O resultado desta revisão é apresentado nas subseções a seguir.
2.1 Organização do Conteúdo em Blogs
Murugesan (2007) afirma que os blogs se tornaram populares pela sua forma
simples e por possibilitarem que pessoas expressem seus pensamentos, ideias, sugestões e
comentários na Internet. Rodzvilla (2002) argumenta que os blogs conceberam ao indivíduo
a chance de satisfazer um desejo natural de se comunicar em sociedade. A consequência
deste sucesso foi a explosão informacional que trouxe a tona a necessidade em organizar
esta informação pelas empresas de marketing e monitoramento de mídias sociais
(TREMAYNE, 2007).
No contexto dos blogs, a práticas tradicionais de organização da informação e do
conhecimento não são aplicadas. Ao invés disso, são utilizados modelos de classificação
natural, descentralizados, independentes de modelos pré-estabelecidos. A proposta dos
blogs é, dar ao usuário a liberdade de organizar a sua produção de forma pessoal (RUSSEL,
2005). Dar ao usuário o controle sobre o processo organizacional não implica
necessariamente em uma organização efetiva, ainda que este indivíduo possua,
supostamente, um maior conhecimento semântico sobre a sua publicação (SOUZA;
ALVARENGA, 2004).
Cenários como este apresentam um grande desafio para que sistemas
computacionais realizem o processo de mineração deste ambiente (web mining) uma vez
que para isto se exige e existência de estabelecimentos semânticos no código fonte das
páginas para auxiliar na atribuição de um significado àquilo que foi publicado (BAEZAYATES; RIBEIRO NETO, 2013). Estes sistemas precisam deste auxilio para realizar a
3363
identificação de conteúdo e uma das abordagens mais utilizadas para isso é a Web
Semântica (KIM et al., 2009).
A Web Semântica permite que os dados contidos na Internet passem a ser
compreendidos por computadores e esta é baseada na descrição dos recursos da Internet de
forma compreensível pelos computadores. Esta descrição pode ser obtida através da
anotação de meta-dados, agregando dados a outros pedaços de dados (OREN et al., 2006).
Deste modo, ao aplicar a Web Semântica, estes blogs são atendidos por um modelo
mais inteligente de organização que prevê não apenas a organização interna, na forma de
categorias ou marcações, mas também abre portas para modelos de extração externos que
elevam o nível da organização para fora do ambiente do blog, apresentando um possível
adjacente para novos modelos de organização, recuperação e representação da informação
(WITTEN; FRANK; HALL, 2011). A FIGURA 1 apresenta um paralelo entre um conjunto
de documentos organizados através de hiperlinks tradicionais (a) e outro utilizando os
microformatos (b). Podemos perceber a dificuldade de prover significado a um elemento no
modelo tradicional uma vez que não é possível determinar qualquer tipo de relação entre os
recursos relacionados que só se utiliza do recurso de hiperlinks (href) que impossibilita a
inferência informações.
FIGURA 1 – Comparativo dos modelos de organização Tradicional e de Web Semântica
Fonte: adaptado de Koivunen e Miller (2001)
3364
2.2 Etiquetagem
Tradicionalmente o papel de catalogação e organização da informação em grandes
unidades de informação e conhecimento, como as bibliotecas, é atribuição inquestionável
de profissionais da informação. Contudo, estes profissionais, na maioria dos casos, lidam
com ambiente e recursos padronizados que em nada se parece com o ambiente da Internet.
Na rede, incontáveis recursos são produzidos diariamente e estes são criados nos mais
diversos formatos (vídeo, texto, áudio, foto, etc.), e são organizados de formas
completamente diferentes uns dos outros. Isto é um reflexo do aumento latente do conteúdo
disponível, causado pela popularização do acesso e da produção de conteúdo e empregar
profissionais de informação para catalogar e organizar o conteúdo da Web seria uma tarefa
praticamente impossível (PRESSLEY, 2005).
Na Internet, muitos dos serviços disponibilizados adotaram um modelo de atribuição
de palavras-chave que possibilita o usuário a atribuir etiquetas (tags) a recursos na web sem
a necessidade de um vocabulário controlado (MARLOW et al., 2006). Este processo,
denominado Tagging, propõe que usuários comum tornem-se o ator principal do processo
de organização, consiste na associação de palavras-chave a um objeto ou item na Internet
com o intuito de torna-los acessíveis de forma menos complicada para o usuário final (KIM
et al., 2011).
Marlow et al. (2006) afirmam que:
a utilização de tags no processo de organização apresenta potencial para
melhorar o resultados de buscas, detectar spams, desenvolver sistemas de
reputação e organização pessoal, enquanto possibilita novas possibilidades
de comunicação e oportunidade de mineração de dados. Ainda, naquilo
que tange sua concepção (MARLOW et al., 2006).
Kim et al. (2011) define que um modelo de marcação é composto de um conjunto de
conceitos:
“Objeto: o recurso que está sendo etiquetado. Por exemplo, um livro, uma foto, ou
uma publicação de blog, etc.;
Tag: a etiqueta associada ao recurso.
Etiquetador: o agente – normalmente uma pessoa – que cria a ligação entre o objeto
e a etiqueta.
Fonte: o espaço onde o ato de etiquetar foi realizado. Por exemplo: Twitter.
Polaridade: um voto contra ou à favor a declaração da etiqueta com o objetivo de
solucionar problemas com spams.
A utilização de Tagging pode ser encontrada na web em duas vertentes: (a) através
do uso colaborativo, ou amplo, e (b) através do uso restrito, ou estreito. No uso
3365
colaborativo, também conhecido como social tagging, há a interação social entre os
usuários de um sistema para a atribuição de etiquetas a um determinado recurso. Esta
abordagem exige a existência de modelos de classificação que mensurem a relevância de
uma etiqueta com base na quantidade de usuários que atribuem a mesma tag a um mesmo
recurso, obtendo uma espécie de ranking (SINCLAIR; CARDEW-HALL, 2007). Este
modelo de Tagging tem se tornado popular na Web em diversos serviços como por exemplo
os trend topics do Twitter. (AMARAL; AQUINO, 2008) .
O conceito de folksonomia ampla de Varder-Wal (2013) é resultado do processo de
etiquetagem a partir de um conjunto de palavras-chave que representam como um grupo de
indivíduos classifica suas informações dentro de um contexto. Outro modelo possível de ser
encontrado na web é aquele baseado no uso restrito, onde um único usuário, ou uma
comunidade bastante reduzida, é responsável por atribuir etiquetas a um recurso, não
havendo interação por parte dos outros usuários.
Guimarães (2008) afirma:
Este modelo não possui a finalidade de ser interativo, mas representar
como o autor do produto informacional classifica a sua produção, com a
intenção de apresentar ao seu consumidor o conteúdo daquilo que se
produziu, uma vez que o autor possui um conhecimento semântico
profundo sobre aquilo que foi criado (GUIMARÃES, 2008).
2.3 Microformatos
Segundo Khare e Elik (2006)
Para auxiliar na organização e recuperação da enorme quantidade de
conteúdo que apresenta baixa semântica na web, especialmente aqueles
advindos de blogs e ambientes de produção colaborativa, foram
elaborados os microformatos sendo estes um conjunto de padrões que
buscam “facilitar a descrição de pessoas, lugares, eventos e outras formas
comuns de elementos semi-estruturados para linguagem humana”
(KHARE; ELIK, 2006).
O conceito delimitado por Khare e Elik (2006) é fundamentado na descrição
oferecida no próprio sítio da Microformatos: “Feito para humanos primeiro e máquinas em
segundo”. Os microformatos são um conjunto simples de formatos abertos de dados
construída sobre a premissa de padrões existentes e já amplamente utilizados
(Microformats, 2014).
A primeira menção aos microformatos ocorreu durante a conferência South By
Southwest (SXSW) em 2004 e, desde então, “a utilização de microformatos vem ganhando
adeptos rapidamente entre produtores de informação e desenvolvedores de serviços,
grandes e pequenos, nos últimos dois ou três anos” (ALLSOP, 2007).
3366
Para a utilização dos microformatos é necessária a existência de recursos semiestruturados, tais como as linguagens de marcação hipertexto mark-up language (HTML) e
extensible mark-up language (XML), e através do uso de recursos já adotados, como o
atributo class, são inseridos novos descritores contendo os microformatos responsáveis pelo
valor semântico do documento (KHARE; ELIK, 2006). Um modelo de aplicação pode ser
visualizado na FIGURA 2, onde há a descrição sintática de um evento acrescido do
conteúdo semântico (em negrito).
FIGURA 2 – Exemplo de utilização do padrão hCalendar em microformatos para a
definição de um evento em calendários
Fonte: Os Autores
A grande vantagem dos microformatos para a organização e recuperação da
informação na Internet reside, não em uma nova tecnologia, mas no reuso daquelas já
utilizadas. Deste modo, facilitando a sua adoção. Neste sentido, Allsop (2007) argumenta à
favor da importância dos microformatos para a Web Semântica: “os Microformatos são um
conjunto de abordagens para resolver o importante problema da falta de produção de
marcações com estruturas semânticas na web de hoje”.
De acordo com Kim et al. (2011) a semântica aplicada aos microformatos é menos
poderosa quando comparada à capacidade de outros modelos tais como o Resource
Descritption Framework (RDF). Mas, Khare e Elik (2006) sugerem que a utilização de um
arquivo externo, como no caso do RDF, para atribuição de semântica em ambientes como a
Blogosfera pode não funcionar por exigir um conhecimento específico do produtor da
informação.
Khare (2006) destaca que existem quatro características que auxiliam na
popularização de microformatos: (a) ser redutível, ou seja, ser utilizado somente quando há
real necessidade, (b) ser reutilizável, não sendo necessária a definição de cada atributo
3367
sempre que este for utilizado, (c) ser reciclável, podendo ser utilizado em diversos recursos
tais como Feeds sejam estes Rich Site Summary (RSS) ou Atom e blogs, e (d) ser
representável e analisável, isto é, os meta-dados estão sempre visíveis, tanto para a máquina
quanto para o ser humano, embora sejam vistos de formas diferentes, proporcionando, por
exemplo, análises automáticas do conteúdo.
Hoje, muitas são as classes, também conhecidas como vocabulários, criadas pela
comunidade Microformats.org para atribuição de semântica na web com base nos
microformatos, entre elas a hCalendar, hCard e rel-license, descritas a seguir
(Microformats, 2014).
hCalendar: Formato aberto de padronização para a descrição de eventos na
web com base no padrão iCal utilizado em diversas aplicações de calendário.
Este padrão permite que sistemas de busca na web sejam capazes de
identificar um evento (no passado, no presente, ou no futuro) e converte-los de
modo a serem automaticamente incorporados a ferramentas de calendário
como, por exemplo, o Google Calendar.
hCard: Este formato é utilizado para permitir que sistemas de busca sejam
capazes de identificar pessoas ou empresas que estejam listadas em páginas na
Internet, auxiliando na localização deste tipo de informação. Um serviço que
utiliza este microformato é o “logar com Facebook” onde um usuário pode
utilizar as suas informações contidas no Facebook e utilizá-las para se
cadastrar em outros serviços.
rel-license: Este padrão tem como objetivo delimitar espaços onde há a
indicação do tipo de licença atribuída ao recurso. Se é livre, aberta,
proprietária ou mesmo copyleft.
rel-tag: Formato responsável por reconhecer as etiquetas em diversos serviços.
Outros vocabulários definidos são: rel-nofollow (comunicação com agentes),
VoteLinks (concordância com links), XFN (relacionamentos entre pessoas), XMDP
(metadados), XOXO (especificação de HTML), adr (endereços), geo (coordenadas
geográficas), hAtom (informações semânticas), hAudio (conteúdo de áudio), hListing
(listas abertas e distribuídas), hMedia (imagens, vídeo e áudio), hNews (informações
semânticas em notícias), hProduct (informações padronizadas sobre produtos), hRecipe
(receitas culinárias), hResume (currículos), hReview (revisões), rel-directory (indica que o
destino de um hyperlink é um diretório), rel-enclosure (anexos), rel-home (indica um link
3368
para a página principal de um site), rel-payment (mecanismo de pagamento),
robotsexclusion (informações para robôs de busca), xFolk (marcações sociais).
3 MICROGISBORNE
Com o objetivo elaborar um produto/serviço de informação que utilizasse a
informação contida nas etiquetas criadas pelos usuários em blogs, os autores decidiram
utilizar os padrões de microformatos para auxiliar nessa coleta baseado no vocabulário “reltag”. Para tanto foi montado um experimento em um cenário real. Faz-se importante, ainda,
ressaltar que a ausência de ferramentas para este tipo de problemática torna razoável a
hipótese de pioneirismo desta pesquisa, principalmente devida sua relevância para a
Organização e Recuperação da Informação.
Desta forma, para realização do experimento proposto nesta pesquisa, foi elaborada
a ferramenta Microgisborne concebida como uma ferramenta acessível através da Web com
o objetivo de processar e recuperar meta-dados, mais especificamente tags, de postagens de
blogs que utilizem a classe de atributos rel-tag provenientes da semântica aplicada pelos
microformatos. Neste sentido, a aplicação busca apresentar uma forma de se extrair este
conhecimento através dos microformatos.
A ferramenta utiliza-se de algoritmos desenvolvidos em linguagem Hypertext
Preprocessor (PHP), utilizando o framework Slim como base para efetuar a leitura dos
microformatos dos documentos na Internet e recuperar para o usuário quais foram as tags
atribuídas pelo produtor da informação para rotular uma postagem, tornando, assim,
possível uma análise posterior do método de organização, ou mesmo a realização de
inferências menos óbvias.
Os dados recuperados pela ferramenta são armazenado através do uso de bases de
dados. Havia uma dúvida se a base de dados mais adequado seria a MySQL (livre e
amplamente utilizada) ou a Google Big Query (livre e que suporta aplicações de big data).
A intenção desta ferramenta é que ela seja aberta e acessível a outros desenvolvedores e
para isso foi disponibilizada uma interface para aplicação de programas (API) para a
utilização deste serviço de informação85. A arquitetura do sistema utiliza a arquitetura de
serviços REST, também adequada para escalonamento de usuários se aplicado em infraestrutura como serviço (IaaS), isso significa que se 1 ou 1.000.000 de usuários utilizarem o
sistema de forma simultânea, o produto estará apto a realizar esse escalonamento de forma
85
http://docs.microgisborne.apiary.io/
3369
automática. A FIG. 3 apresenta as relações, métodos, e técnicas utilizadas para elaboração
do serviço.
O modelo inicial o MicroGisborne foi delineado após grande dificuldade dos autores
em encontrar outra ferramentas que tornassem possível a captura dos meta-dados utilizados
no blog Brainsorm9.com.br, objetivando uma análise da organização informacional do blog,
inicialmente quantitativa. As questões estabelecidas pela pesquisa giravam em torno da
utilização de etiquetas no blog e eram as seguintes:
Quantas tags os autores do blog utilizam em média para descrever seu
conteúdo?
Quais são as tags que mais se repetem?
Os autores reutilizam tags ou tendem a criar novas tags?
Qual o total de tags utilizadas pelos autores?
FIGURA 3 – Arquitetura do Microgisborne
Fonte: Os Autores
A ferramenta já está disponível no endereço www.microgisborne.com
4 EXPERIMENTO
O cenário escolhido para realização deste experimento foram os blogs presentes
dentro das categorias “News 86" e “Music87” do sítio da plataforma Wordpress. Estes blogs
86
87
http://en.wordpress.com/tag/news/
http://en.wordpress.com/tag/music/
3370
que utilizam a plataforma Wordpress foram escolhidos pois o suporte aos microformatos é
uma configuração padrão em todos os blogs derivados deste serviço, assim, sendo garantida
a consistência dos dados. O experimento foi realizado para avaliar três objetivos (i) se a
utilização de microformatos era adequada para a recuperação desse tipo de informação, (ii)
saber qual base de dados seria mais adequada ao projeto, se o MySQL (relacional) ou
Google Big Query (suporte a big data) e (iii) verificar se a arquitetura escolhida era
escalável para múltiplos acessos.
Após a escolha do escopo a ser analisado, foi colocado o Microgisborne para
executar o primeiro passo da recuperação das tags que é encontrar o endereço (URL) dos
blogs a serem varridos. O Wordpress disponibiliza um arquivo .xml para cada categoria
(music e news) onde se fez necessário buscar a marcação “blog-url” que apresentava a URL
específica de um blog, e ao percorrer todo o arquivo xml, todos os blogs daquela categoria
estariam mapeados. Esta primeira etapa finaliza quando todas as fontes de informação
forem encontradas e os endereços dos blogs estejam armazenados nas base de dados
(MySQL e Google Big Query).
O segundo passo foi verificar todas as postagens que existem no blog. Em boa parte
dos serviços de blogs, uma nova postagem sempre é criada como uma nova página (nova
URL), então era necessário encontrar os endereços destas páginas. Para isso, basta procurar
pelo arquivo sitemap.xml que contem, como o nome sugere, o mapa do site e todos as suas
“subpáginas”
a
partir
do
“jonwizardnews.wordpress.com”
domínio
era
original.
necessário
Por
exemplo,
procurar
pelo
no
blog
endereço
jonwizardnews.wordpress.com/sitemap.xml. A partir dai, e microgisborne deveria recuperar
todo o conteúdo entre as marcações <loc></loc> que contem os endereços da subpágina.
Esta segunda etapa finaliza quando todos as subpáginas forem localizadas e cadastradas nas
bases de dados vinculadas as páginas principais.
O terceiro passo seria “visitar” cada página e subpágina e ao olhar o código fonte
procurar pelas marcações “rel-tag” do padrão de microformatos. Estas marcações
representam as etiquetas realizadas pelos usuários em uma postagem específica. Então cada
subpágina foi varrida pelo microgisbourne e cada tag foi vinculada a uma postagem
“subpágina”, e cada postagem vinculada a um blog (página).
Para este experimento a ferramenta foi configurada a Infraestrutura como serviço
(IaaS) da amazon.com e foram criados 10 agentes onde cada uma simulava algum tipo de
serviço do microgisborne. Os 10 agentes se alternavam, de forma aleatória, entre os três
passos da atividade, para simular momentos em que fossem necessárias indexar mais
3371
informações ou simular que 10 usuários simultâneos estão buscando dados na ferramenta e
assim o serviço não deveria estar realizando tarefas back-end. A FIGURA 4 a seguir
apresenta este funcionamento.
Esta estrutura pode ser dimensionada para 1 único agente ou para 10.000 agentes
simultâneos. A carga de trabalho dos agentes foram monitorados e estiveram em média,
apenas 13% do tempo em estado de espera (Idle). Nas primeiras 6 horas, o número de
instâncias, ou agentes funcionando, foram variados entre 3 e 30 para simular a
escalabilidade do serviço.
Todo os dados processados foram colocados em dois sistemas gerenciadores de
banco de dados (SGBD). O SGBD MySQL utilizou a modelagem relacional para a
organização lógica dos dados, enquanto que no Google Big Query utilizou o formato JSON
para modelar os dados. Em três dias de experimento, foram visitados 2.546 blogs que
continham 764.429 páginas e foram coletadas 6.699.643 tags. Enquanto no MySQL estes
dados ocuparam 418,72 Mb de dados, enquanto no Google Big Query se utilizou cerca
356,99 Mb. Entretanto, as consultas utilizando o Google Big Query são em média 56%
mais rápidas do que no MySQL e a tendência é que c com a quantidade de dados
aumentada (Big) é que este SGBD seja melhor.
FIGURA 4 – Funcionamento do Microgisborne
Fonte: Os Autores
5 CONSIDERAÇÕES FINAIS
O experimento demonstrou que a ferramenta foi bem sucedida em coletar etiquetas
de blogs utilizando o vocabulário “rel-tag” de microformatos se mostrando uma solução
simples para a recuperação de informações em serviços de Internet. A partir dessa
possibilidade, novos produtos e serviços de informação, baseados em microformatos podem
ser elaborados. Por exemplo, nuvens de tags das categorias News e Music, FIGURAS 5 e 6
3372
respectivamente, foram criadas a partir dos dados coletados pela ferramenta e geradas pela
ferramenta D34js.
FIGURA 5 – Nuvens de Tags dos Categoria News
Fonte: Os Autores
FIGURA 6 – Nuvens de Tags dos Categoria Music
Fonte: Os Autores
Atualmente a ferramenta já implementa os seguintes serviços:
Tags de um Blog: Ao digitar a URL de qualquer blog que tenha suporte aos
microformatos ele retorna a lista de tags, exemplo na FIGURA 7. A nuvem de tags por
blogs ainda está em construção.
3373
FIGURA 7 – Tags do blog vernasunhas.blogspot.com
Fonte: Os Autores
Lista de Blogs a Partir de uma Tag: Este serviço apresenta uma lista de blogs que
contenham uma tag escolhida pelo usuário. Este ainda não está implementado no serviço
online, mas a FIG. 8, mostra o resultado deste serviço no experimento.
FIGURA 8 – Lista de Sites a partir de uma Tag
Fonte: Os Autores
Tag Blogrolling: Este serviço apresenta uma lista de blogs que apresentam o mesmo
conjunto de tags que um outro blog escolhidos pelo usuário. Por exemplo, um usuário pode
entrar com o endereço http://vernasunhas.blogspot.com.br e o microgisborne sugere outros
blogs que possuam o mesmo conjunto, ou o máximo, conjunto de tags. Este serviço ainda
não está implementado devido.
3374
Finalmente, sugerimos a reflexão de que os maiores desafios levantados quanto a
evolução do microgisborne não provêm da tecnologia em si, mas sim da elaboração de
fluxos da informação para as tags armazenadas nas bases de dados e transformar estes
fluxos em produtos e serviços úteis a sociedade.
REFERÊNCIAS
ALEXANDER, B. Web 2.0: A new wave of innovation for teaching and learning?
Educause review, v. 41, n. 2, p. 32-44, 2006.
ALLSOP, J. Microformats: Empowering Your Markup for Web 2.0. Nova York: Friends
of, 2007. 368 p.
AMARAL, A.; AQUINO, M. Práticas de folksonomia e social tagging no Last. fm. In:
Simpósio Brasileiro de Fatores Humanos e Sistemas Computacionais, 8., 2008, Porto
Alegre. An is…, Porto Alegre, Simpósio Brasileiro de Fatores Humanos e Sistemas
Computacionais, 2008.
BAEZA-YATES, R.; RIBEIRO-NETO, B. Recuperação de Informação: Conceitos e
Tecnologia das Máquinas de Busca. 2. ed. Porto Alegre: Bookman, 2013. 614 p.
CASSANO, R. Somos tão Jovens: Uma breve retrospective da Web. 2011. Disponível em:
< http://www.techtudo.com.br/platb/internet/2011/06/09/somos-tao-jovens-uma-breve
retrospectiva-da-web/> Acesso em: 13 Ago. 2013.
FU, B. Trust Management in Online Social Networks. 2007. 90 f. Dissertação (Mestrado
em Ciência da Computação) - Departamento de Ciências da Computação. Trinity College,
University of Dublin, Dublin. 2007.
GUIMARÃES, C. P. Tags: palavras-chave em blogs. In: Simpósio Hipertexto e
Tecnologias na Educação. 2. 2008, Recife. An is… Recife. Simpósio Hipertexto e
Tecnologias na Educação, 2008. p. 1-22.
HEWITT, H. Blog: Understanding the information reformation that's changing your world.
Nashville: Thomas Nelson Inc., 2005. 256 p.
KHARE, R; ELIK, T. Microformats: A Pragmatic Path to the Semantic Web. 2012.
Disponível em: <http://commerce.net/wpcontent/uploads/2012/04/CN-TR-06-01.pdf>.
Acesso em: 18 fev. 2014.
KHARE, R. Microformats: The next (small) thing on the Semantic Web. Internet
Computing, v. 10, n. 1, p. 68-75, 2006.
KIM, H.; SCERRI, S.; PASSANT, A.; BRESLIN, J. Integrating Tagging into the Web of
Data: Overview and Combination of Existing Tag Ontologies. Journal Of Internet
Technology, Taiwan, v. 12, n. 4, p. 561-572, 2011.
KOIVUNEN, M.; MILLER, E. W3c semantic web activity. Semantic Web Kick-Off in
Finland, p. 27-44, 2001.
LIPTON, R., What is a Weblog?. 2002. Disponível em: <http://radio.weblogs.com/
0107019/stories/2002/02/12/whatIsAWeblog.html>. Acesso em: 13 Ago. 2013.
3375
LUND, B.; HAMMOND, T; FLACK, M; HANNAY, T. Social bookmarking tools (II). DLib magazine. v. 11, n. 4, 2005.
MARLOW, C; NAAMAN, D; BOYD, D; DAVIS, M. Tagging paper, taxonomy. In:
Conference on Hypertext and Hypermedia. 17. Nova York, 2006. An is… Nova York,
ACM, 2006.
MENDEZ, E; LÓPEZ, L. M.; SICHES, A.; BRAVO, A. G.. DCMF: DC & Microformats, a
Good Marriage. In: International Conference on Dublin Core and Meta-Data Applications.
Berlin, 2008. An is… Berlin, DC-2008: International Conference on Dublin Core and
Metadata Applications, 2008.
MICROFOMARTS. What is Microformats. 2014. Disponível em:
<www.microformats.org>, Acesso em: 18 fev. 2014.
MURUGESAN, S. Understanding Web 2.0. It Professional, USA, v. 9, n. 4, p. 34-41,
2007.
O'REILLY, T. What Is Web 2.0: Design Patterns and Business Models for the Next
Generation of Software. Communications & Strategies, v. 1, n. 65, p. 17, 2007.
OREN, E.; MÖLLER, K.; SCERRI, S.; HANDSCHUH, S. What are semantic
annotations. Galway: Digital Enterprise Research Institute, National University of Ireland,
2006. 14 p.
PETERS, I.; STOCK, W. G. Folksonomy and information retrieval. Journal of American
Society for Information Science and Technology, v. 44, n. 1, p. 1-28, 2007.
PRESSLEY, L. Folksonomies, tags, and user-created metadata: A truly emerging
technological trend unpublished seminar on emerging technological trends in libraries.
Winston-Salem : Reynolds Library - Wake Forest University, 2005. 22 p.
RODZVILLA, J. We've Got Blog: How Weblogs are Changing Our Culture. Cambridge:
Basic Books, 2002. 176 p.
RUSSELL, T. Contextual authority tagging: cognitive authority through folksonomy.
2005. Disponível em: <http://www.terrellrussell.com/projects/contextualautho
ritytagging/conanthtag200505.pdf>. Acesso em: 1 out. 2013.
SINCLAIR, J.; CARDEW-HALL, M. The folksonomy tag cloud: when is it useful?.
Journal of Information Science, v. 34, n. 1, p. 15-29, 2008.
SOUZA, R.; ALVARENGA, L. A Web Semântica e suas contribuições para a ciência da
informação. Ciência da Informação, Brasília, v. 33, n. 1, p 132-141, 2004.
TREMAYNE, Mark. Introduction: Examining the blog-media relationship. Blogging,
citizenship, and the future of media, New York, p. 3-20, 2007.
VANDER WAL. Explaining and Showing Broad and Narrow Folksonomies. 2005.
Disponível em: <http://www.vanderwal.net/random/entrysel.php?blog=1835>. Acesso em:
1 Ago. 2013.
WITTEN, H.; FRANK, E.; MARK, A. Hall. Data Mining: Practical machine learning tools
and techniques. Morgan Kaufmann 2011. 560 p. (The Morgan Kaufmann Series in Data
Management Systems – Series)
3376
WHARTON. Wh t’s the Next Big Thing on the Web? It M y Be S ll, Si ple Thing
- Microformats. 2005. Disponível em:
<http://knowledge.wharton.upenn.edu/index.cfm?fa=printArticle&ID=1247> Acesso em: 1
ago. 2013
WORDPRESS. Stats -Wordpress.com. 2014. Disponível em:
<http://en.wordpress.com/stats/>. Acesso em: 18 fev. 2014.
3377
POLÍTICAS DE FORMATOS DE ARQUIVOS PARA OBJETOS DE
APRENDIZAGEM: PRESERVAÇÃO DIGITAL NO SABER TECNOLOGIAS
EDUCACIONAIS E SOCIAIS
FILE FORMAT POLICY FOR LEARNING OBJECTS: DIGITAL PRESERVATION ON THE
SABER EDUCATIONAL AND SOCIAL TECHNOLOGIES
Vildeane da Rocha Borba
Sandra de Albuquerque Siebra
Resumo: Este artigo tem o objetivo de apresentar as políticas de formatos de arquivos para
objetos de aprendizagem implementadas no SABER Tecnologias Educacionais e Sociais,
com o propósito de viabilizar o acesso a longo prazo aos recursos educacionais produzidos
nos cursos na modalidade a distância. A fundamentação teórica se pauta em conceitos sobre
estratégias de preservação digital, políticas de preservação, educação a distância e formatos
de arquivos, adotando instrumentos necessários para o controle e a preservação da memória
em meio digital e sua permanência continuada. A metodologia utilizada foi a pesquisa
qualitativa e o procedimento metodológico utilizado foi o método de estudo de caso. O
objeto de estudo foram os objetos de aprendizagem produzidos pelo grupo SABER, devido
ao grande quantitativo produzido para atender às demandas de cursos de especialização e
capacitação, especialmente, na área de saúde. A política de formatos de arquivos para
objetos de aprendizagem abrangeu arquivos em formato textual, imagem, áudio e vídeo,
apresentando a padronização necessária levando-se em consideração as vertentes acesso e
preservação. Como conclusão, verifica-se que, na prática, é encorajado que os objetos de
aprendizagem sejam criados e possam ser reutilizados por outros cursos e iniciativas,
quando necessário. Dessa forma, é preciso garantir a sua preservação, para proporcionar o
contínuo acesso e uso. Assim, a preservação desses objetos deve ser encarada como algo
primordial, considerando os impactos advindos das mudanças tecnológicas.
Palavras-chave: Preservação Digital. Objetos de Aprendizagem. Formato de Arquivo.
Abstract: This article aims to present the policies of file formats for learning objects
implemented in SABER Educational and Social Technologies for the purpose of facilitating
the long-term access to educational resources produced in courses in distance mode. The
theoretical foundation is guided by concepts of digital preservation strategies, preservation
policies, distance education and file formats, adopting the necessary instruments for the
control and preservation of memory in digital media, to ensure its continued access. The
methodology was qualitative research and the methodological procedure used was the case
study. The focus of the study were the learning objects produced by the SABER group, due
to the large quantity produced to meet the demands of specialized courses and training,
especially in the health area. The file formats policy for learning objects included text,
images, audio and video files, specifying the standardization required, taking into account
the access and preservation aspects. In conclusion, it appears that, in practice, it is
encouraged that learning objects are created and can be reused by other programs and
initiatives, as needed. Thus, it is necessary to ensure their preservation, to provide
continuous access and use. Therefore, the preservation of these objects should be seen as
something essential, considering the impacts from technological change.
Keywords: Digital Preservation. Learning Objects. File Format.
3378
1 INTRODUÇÃO
A educação a distância (EAD), segundo Moran (2005), refere-se a um processo de
ensino-aprendizagem no qual docentes/tutores e discentes/estudantes estão separados
fisicamente, espacial e/ou temporalmente, podendo estar conectados mediante tecnologias,
sobretudo as telemáticas, a exemplo da internet.
Apesar de a internet ser o seu meio mais utilizado nos dias atuais, a EAD também
pode ocorrer utilizando correio, rádio, televisão, vídeo, CD-ROM, telefone, entre outras
tecnologias. Em um país de dimensões continentais como o Brasil, essa modalidade
propicia a expansão da missão educadora das Instituições de Ensino Superior (IES),
eliminando as barreiras de tempo e espaço, contribuindo para a redução das desigualdades
sociais, no sentido de ampliar o raio de atuação das IES, comumente concentradas nas
capitais dos estados e proximidades.
A EAD vem se consolidando cada vez mais no cenário nacional, e grandes projetos
nessa modalidade vêm sendo financiados pelas esferas federais (especialmente pelos
Ministério da Educação e Ministério da Saúde), estaduais e municipais, tais como a
Universidade Aberta do Brasil (UAB), o E-TEC Brasil e a Universidade Aberta do Sistema
Único de Saúde (UNA-SUS), entre outros. Os financiamentos envolvem a criação de cursos
técnicos, de graduação, de especialização, de mestrados e de doutorados, além de cursos de
capacitação com curta ou média duração.
Nesse sentido, cada vez mais estão sendo produzidos e desenvolvidos objetos de
aprendizagem (doravante OAs) adequados às estratégicas pedagógicas e também às
tecnologias utilizadas, como meio de propagação e disseminação do conhecimento. Os OAs
podem ser compreendidos como “qualquer recurso digital que possa ser reutilizado para o
suporte ao ensino” (WILEY, 2000, p. 3, tradução nossa). Assim, estes recursos
educacionais contribuem para o processo de ensino-aprendizagem e sofrem impacto direto
no que diz respeito à sua durabilidade, disseminação e preservação, devido à sua natureza
digital. Por conseguinte, eles merecem uma atenção especial, principalmente devido à
expansão de sua produção, visto que são produzidos tanto nos contextos dos cursos a
distância, como também para atender necessidades de cursos presenciais.
Inicialmente, os produtores dos OAs tinham como foco apenas a produção,
disponibilização e acesso dos conteúdos digitais, sem a preocupação com a garantia da
proteção informacional de valor permanente. Atualmente, desperta-se para a necessidade de
determinação de políticas e estratégias de preservação que devem estar lastreadas em um
documento dirigido a orientar ações emergenciais e estruturais.
3379
Nesse cenário, o objetivo deste artigo é apresentar as políticas de formatos de
arquivos para OAs implementadas no SABER Tecnologias Educacionais e Sociais, com o
propósito de viabilizar o acesso a longo prazo aos recursos educacionais produzidos em
seus cursos na modalidade a distância.
Espera-se, com esse artigo, contribuir para a discussão sobre a preservação de OAs e
colaborar com a conscientização das diversas iniciativas de Educação a Distância
espalhadas pelo Brasil da necessidade de se pensar no acesso a longo prazo da memória
digital com fins educacionais produzida, muitas vezes, sem critérios ou padrões ou
preocupação com o futuro.
2 PRESERVAÇÃO DIGITAL
Uma das características mais importantes da natureza da informação é a
perecibilidade dos novos suportes do registro do conhecimento e a rápida maturação ou
obsolescência dos instrumentos tecnológicos. Esta condição exige a construção de
estratégias especializadas que permitam não somente a garantia da manutenção do acesso
aos recursos de informação digital de longo termo, mas também a garantia do contínuo
acesso aos conteúdos e funcionalidades dos recursos eletrônicos originais.
A preservação da memória digital diz respeito à aplicação de estratégias, capazes de
viabilizar a permanência continuada de informações para uso das futuras gerações,
preocupando-se com os impactos das mudanças tecnológicas. Miguel Ferreira destaca a
capacidade que a preservação eletrônica possui de: “Garantir que a informação digital
permaneça acessível e com qualidades de autenticidade suficientes para que possa ser
interpretada no futuro, recorrendo-se a uma plataforma tecnológica diferente da utilizada no
momento de sua criação” (FERREIRA, 2006, p. 20).
Hedstrom define a preservação digital como o:
Planejamento, alocação de recursos e aplicação de métodos de
preservação e tecnologias necessárias para que a informação digital de
valor contínuo permaneça acessível e utilizável por longo prazo,
considerando-se neste caso longo prazo o tempo suficiente para
preocupar-se com os impactos de mudanças tecnológicas (HEDSTROM,
1997, p. 190, tradução nossa).
A obsolescência tecnológica dos suportes físicos, de hardware e de software, dos
formatos dos dados, são pontos nevrálgicos, portanto, para o desenvolvimento de
estratégias e de estudos onde se concentra o esforço atual dos especialistas para garantir a
perenidade dos documentos digitais.
Arellano apresenta três níveis de preservação: física, lógica e intelectual para os
objetos digitais. Diz o autor:
3380
A Preservação física está centrada nos conteúdos armazenados em mídias
magnéticas (fitas cassete de áudio e de rolo, fitas VHS e DAT etc.) e
discos ópticos (CD-ROMs, WORM, discos óticos regraváveis). A
Preservação lógica procura na tecnologia formatos atualizados para
inserção dos dados (correio eletrônico, material de áudio e audiovisual,
material em rede etc.), novos software e hardware que mantenham
vigentes seus bits, para conservar sua capacidade de leitura. No caso da
Preservação intelectual, o foco são os mecanismos que garantem a
integridade e autenticidade da informação dos documentos eletrônicos
(ARELLANO, 2004, p.17).
A preservação digital é uma etapa basilar, e necessariamente posterior ao
desenvolvimento das Tecnologias da Informação e Comunicação e do sistema de redes que
criou a nova ambiência para a informação em meio digital. Corresponde, de certo modo, ao
fenômeno do desenvolvimento das estratégias e métodos para conservação e preservação de
papel e materiais bibliográficos, ocorrido em momento pós-expansão documental, iniciado
com o ciclo das grandes guerras mundiais.
Porém, esse problema da preservação do digital tomou dimensão inesperada,
notadamente quando a humanidade se deu conta do risco que pairava sobre os acervos
digitais ameaçados pela rápida obsolescência de formatos, suportes, hardware e software.
Daí se iniciaram os estudos sobre a preservação da informação em meio digital e se
motivou a criação de políticas nesse sentido.
3 POLÍTICAS DE PRESERVAÇÃO DIGITAL
A implementação de políticas de preservação digital se faz através do
desenvolvimento e da implantação de diretrizes, programas, planos e projetos de
preservação. Isso com o objetivo explícito de oferecer subsídios orientadores para um
programa de política pública estrutural, dirigido ao atendimento unívoco das demandas de
estratégias de gestão, para a problemática da obsolescência do conhecimento suportado em
formato digital.
Dessa forma, em primeiro lugar, é necessário selecionar e criar coleções digitais
com um valor duradouro. Depois, deve haver uma política de preservação bem definida,
que estabeleça as regras e procedimentos, assim como o que deve ser preservado. Essa
política deve ser revisada periodicamente, tanto para melhorar os métodos, quanto para
redefinir o conjunto de objetos a ser preservado. Aos objetos preservados deve-se atribuir
um limite de vida. Alguns serão mais perecíveis que outros, e estas durações devem ser
revisadas periodicamente (BIA PLATAS; SÁNCHEZ QUERO, 2002, tradução nossa).
No Brasil, é notável a quase inexistência de políticas de preservação: “Na
atualidade, a política para garantir o armazenamento de longo prazo, manutenção, migração
3381
digital e acesso a materiais, quer a nível local ou nacional, não está frequentemente presente
tanto no setor privado quanto no setor público” (ERPANET, 2003, p. 3, tradução nossa).
A nível local foi instituída, pelo Conselho Nacional de Arquivos (CONARQ) por
meio da Portaria nº. 07, de 21 de agosto de 1995, a Câmara Técnica de Conservação de
Documentos, que foi alterada para o nome Câmara Técnica de Preservação de Documentos
pela Portaria nº. 81, de 16 de junho de 2008. Essa Câmara tem o objetivo de atender às
demandas de normalização e criação de instrumentos metodológicos, técnicos e normativos,
visando à preservação dos acervos documentais dos arquivos públicos e privados.
A Carta para Preservação do Patrimônio Arquivístico Digital: Preservar para
garantir o acesso (2005), desenvolvida pelo CONARQ, visa, entre suas propostas, à
elaboração de estratégias e políticas para salvaguardar documentos em meio digital,
considerando, principalmente, a finalidade do CONARQ em definir “[...] a política nacional
de arquivos públicos e privados e exercer orientação normativa visando à gestão
documental e à proteção especial aos documentos de arquivo, independente do suporte em
que a informação está registrada [...].” (CONARQ, 2005, p. 1).
Com essa carta, o CONARQ reafirma o seu compromisso com a aplicação de
políticas públicas voltadas para a preservação do patrimônio arquivístico digital, além de
convocar os setores públicos e privados, envolvidos com a produção e proteção especial dos
documentos em formato digital, a envidarem esforços para garantir sua preservação e
acesso contínuo, o que é fundamental para a democratização da informação arquivística em
nosso país e a preservação da memória nacional (CONARQ, 2005).
Porém, a falta de consenso quanto ao uso de práticas e métodos mais adequados e a
ausência de modelos firmados de preservação digital podem ser algumas das causas ou
dificuldades de se desenvolverem políticas de preservação digital nas instituições, que
visem à orientação de boas práticas de preservação de materiais digitais e à garantia da
autenticidade, da confiabilidade e da acessibilidade de longo prazo. Além disso, a
implantação de políticas de preservação digital poderia fornecer às empresas privadas ou do
setor público governamental uma visão partilhada e muito mais clara do que é preciso
desenvolver na indústria de TI, na prestação de produtos, serviços e ferramentas mais
adequados a uma preservação mais eficiente.
Segundo Ferreira (2006), uma política de preservação digital deve definir, para cada
tipo de objeto digital, um conjunto de propriedades e ações que preservem suas
características, seu ciclo de vida e sua autenticidade, garantindo a perenidade do seu
conteúdo. Uma política deve transmitir a própria filosofia de uma organização, que deve
3382
induzir a um entendimento comum dos objetivos, do fato de que cada item da coleção deve
ser preservado com o máximo esforço possível (ERPANET, 2003). Uma política de
preservação deve ser abrangente, ter um alcance amplo e incluir não só questões técnicas,
mas também organizacionais, jurídicas, de recursos humanos, de gestão de direitos, de
acesso e de propriedade intelectual.
Alguns estudos sobre a preservação digital têm estabelecido que a imediata
implementação de políticas de preservação digital é a forma mais efetiva de garantir o
armazenamento e uso dos recursos de informação por longos períodos de tempo. A falta
dessas políticas nos projetos de repositórios digitais sugere a carência de conhecimentos
técnicos sobre a importância das estratégias de preservação digital existentes (ARELLANO,
2004).
Uma das consequências da crescente utilização da informação digital é que as
organizações estão se tornando mais e mais conscientes da necessidade de desenvolver
políticas de preservação. A política de preservação digital pode e deve produzir benefícios
para as instituições, tais como garantir materiais digitais disponíveis para a atual e futura
utilização. Além disso, a formulação de uma política permite tratar de temas difíceis, como
a curta duração de vida digital, a pequena capacidade dos materiais digitais, a obsolescência
do hardware e software para leitura dos dados e formatos de arquivo e, finalmente, a
heterogeneidade estrutural e técnica dos diferentes tipos de materiais digitais.
4 OBJETOS DE APRENDIZAGEM
Os OAs começaram a ser estudados muito recentemente, assim, ainda não há um
consenso entre os autores sobre a sua definição. Para este trabalho, será adotada a definição
dada por Wiley (2000, p. 3, tradução nossa), que define o OA como “qualquer recurso
digital que possa ser reutilizado para o suporte ao ensino”. Assim, os OAs podem ser
criados em qualquer mídia ou formato, podendo ser simples, como uma animação, um
arquivo de texto, uma imagem ou foto ou uma apresentação de slides, ou complexos, como
um software de simulação de situações-problema ou um website, que fazem uso de diversos
tipos de recursos.
Um OA deve ter um propósito educacional bem definido, sendo um elemento que
estimule a reflexão do estudante, e deve poder ser reutilizável, ou seja, ele não deve ficar
restrito a um único contexto (BETTIO; MARTINS, 2004), haja vista que deve poder ser
usado a longo prazo, e sua principal vantagem é poder ser reutilizado.
Diversos fatores favorecem o uso de OAs na área educacional, seja como material
didático complementar na educação presencial ou como material básico ou complementar
3383
nos cursos a distância. Entre eles, é possível citar (WILEY, 2000; LONGMIRE, 2001; SÁ
FILHO; MACHADO, 2004):
Flexibilidade – os OAs são construídos de forma que possam ser reutilizáveis em
vários contextos, sem modificações, trazendo uma economia de custos e de tempo de
desenvolvimento/adaptação.
Interoperabilidade – os OAs podem ser utilizados em qualquer plataforma de ensino;
Customização – como os OAs são criados para serem independentes, eles podem ser
utilizados em vários cursos, e cada instituição educacional poderá utilizar-se dos objetos
e arranjá-los da maneira que lhes for mais conveniente. Inclusive, os objetos poderiam
ser arranjados para formarem um novo objeto mais complexo a ser aplicado em um
novo propósito, em um contexto diferente.
Em geral, a construção do OA é realizada por meio da colaboração de três
subequipes: a pedagógica, a tecnológica e a de design; buscando um objetivo em comum,
cada uma contribuindo com sua especialidade. E, como a ideia principal na construção do
OA é estender a sua utilização para vários projetos e vários contextos, pensar na
preservação a longo prazo desses objetos é algo de grande relevância.
Com o advento da Internet e das Tecnologias de Informação e Comunicação (TIC S)
tornou-se possível o desenvolvimento de repositórios digitais, atrelados ao movimento em
favor do acesso livre à informação científica. Quebrando, assim, o paradigma tradicional no
qual editoras científicas comerciais, detentoras dos direitos autorais patrimoniais, atribuíam
altos preços, além de impor barreiras de permissão sobre publicações de resultados de
pesquisas. Estas financiadas, muitas vezes, com recursos públicos, limitando a visibilidade
e a circulação do conhecimento científico.
É amplamente verificado no contexto da educação a distância também o
desenvolvimento de grandes repositórios digitais. Como exemplo, é possível citar o Banco
Internacional de Objetos Educacionais do Ministério da Educação 88, o Acervo de Recursos
Educacionais em Saúde (ARES) da Universidade Aberta do SUS89, a Rede Interativa
Virtual de Educação (RIVED) da Secretaria de Educação a Distância – SEED90 entre vários
outros. Todos com a finalidade de ampliar as fronteiras de acesso e disseminação de
88 http://objetoseducacionais2.mec.gov.br
89 https://ares.unasus.gov.br/acervo/
90 http://rived.mec.gov.br
3384
informação de OAs e/ou recursos educacionais, levando em consideração uma de suas
principais filosofias: a reutilização.
Com relação a repositórios digitais de OAs, Souza e Viera (2012, on line) afirmam
que “o seu emprego no segmento educacional prospecta ganhos quali-quantitativos no
processo de aprendizagem e vislumbra ao pesquisador, volume de informações crescente e
relevante na produção de novos conhecimentos”. Porém, como os repositórios digitais de
OAs se enquadram na filosofia do acesso aberto/livre, grande parte dos OAs
disponibilizados atendem aos requisitos da vertente acesso, para facilitar o download e a
não sobrecarga em relação ao quantitativo de armazenamento no repositório.
Esta realidade favorece a questão da disseminação e ampliação na difusão de OAs.
Porém, até que ponto para fins de reutilização de um vídeo ou imagem, por exemplo, que
necessite estar em alta qualidade digital ou precise ser convertido para um outro formato,
aquele objeto digital disponível no repositório (em baixa qualidade, para facilitar o acesso)
irá atender as necessidades específicas para determinado contexto?
É neste sentido, que este estudo se pauta. Na preocupação de como tratar o problema
da ausência de conhecimento sobre os instrumentos de controle e de preservação da
memória, emprestada ao corpo sutil do meio digital e, em especial, aos OAs. Este trabalho
não exclui a importância dos formatos para disseminação e difusão de OAs em meio digital,
mas sim pretende sensibilizar quanto a importância da preservação da memória armazenada
em meio digital, a fim de proporcionar o acesso a longo prazo destes conteúdos.
5 SABER TECNOLOGIAS EDUCACIONAIS E SOCIAIS
O SABER Tecnologias Educacionais e Sociais é um grupo de pesquisa colegiado
formado por docentes, pesquisadores, estudantes e pessoal de apoio técnico de natureza
multidisciplinar da Universidade Federal de Pernambuco (UFPE). O SABER atua no
desenvolvimento
de
processos
educacionais,
ferramentas
tecnológicas
e
apoio
acadêmico/administrativo na execução de cursos na modalidade a distância.
No desenvolvimento de processos educacionais, o SABER se pauta no planejamento
pedagógico e instrucional para construção de OAs para cursos de educação a distância e
semipresenciais, suportados por ferramentas tecnológicas. Na produção de soluções
tecnológicas, desenvolve aplicações para a web, mobile e desktop, dando apoio na gestão
acadêmica, desenvolvimento de OA e de ambientes virtuais de aprendizagem. No suporte
acadêmico/administrativo, atua na estruturação e treinamento de equipes para dar apoio aos
estudantes, tutores e professores que fazem parte dos cursos promovidos pelo SABER.
3385
Devido ao seu contexto de atuação, no SABER são desenvolvidos vários OAs. Em
especial, objetos no formato de texto, áudio, vídeo e imagem são desenvolvidos como parte
do processo de construção de recursos educacionais, visando atender às necessidades de
ensino e aprendizagem, complementados com a aplicação correta de recursos interativos,
usabilidade adequada e foco no público, colaborando para uma formação mais efetiva.
Diante do exposto, no grupo SABER, sentiu-se a necessidade de determinar
formatos de arquivos para os OAs, sendo levadas em consideração as vertentes acesso e
preservação. Essa determinação dos formatos é considerada um primeiro passo em direção
ao planejamento de políticas de preservação digital a serem adotadas pelo grupo, com o
propósito de possibilitar a perpetuação dos diversos OAs criados para as gerações.
6 METODOLOGIA
Essa pesquisa quanto aos objetivos tem um caráter qualitativo, pois existe “[...] uma
relação dinâmica, particular, contextual e temporal entre o pesquisador e o objeto de
estudo”, enfatizando a capacidade de conhecê-lo, compreendê-lo e adaptá-lo à realidade
pesquisada. (MICHEL, 2009, p. 36).
Quanto aos meios, pauta-se em um estudo exploratório ou pesquisa bibliográfica,
buscando o levantamento teórico sobre o tema, familiarizando-se melhor com o problema
para o aprimoramento de ideias e descoberta de intuições. (MICHEL, 2009).
O método utilizado foi o estudo de caso, pois “trata-se de uma técnica [...] que se
caracteriza por ser o estudo de uma unidade [...] com o objetivo de compreendê-la em seus
próprios termos, ou seja, no seu próprio contexto.” (MICHEL, 2009, p. 53).
Nesse sentido, o foco do estudo recaiu sobre os OAs desenvolvidos pelo grupo
SABER Tecnologias Educacionais e Sociais, com o propósito de entender os fatos e
fenômenos que se configuravam no desenvolvimento de formatos de arquivos dos objetos
desenvolvidos. A proposta do estudo foi determinar uma política para padronização e
regulamentação dos formatos a serem utilizados, primando por formatos específicos para
preservação a longo prazo.
7 FORMATOS DE ARQUIVOS
O formato de arquivo a ser utilizado para preservar ou prover o acesso a objetos
digitais costuma ser bastante debatido, pois questões sobre qual formato utilizar,
principalmente para preservar o arquivo digital para futuras gerações, são as mais
preocupantes.
3386
Formatos de arquivo podem ser definidos como informações codificadas que só
podem ser processadas e compreensíveis por combinações específicas de hardware e
software, e sua acessibilidade é vulnerável na atualidade, pois evoluem rapidamente em
ambiente tecnológico. Isso traz preocupação para todos os responsáveis pela gestão e acesso
aos registros eletrônicos em escalas de tempo relativamente curta (BROWN, 2008).
Rimkus et al. (2014) afirma que os formatos de arquivo abertos são mais indicados
do que os fechados ou chamados formatos proprietários, porque a maneira como eles
codificam o conteúdo é transparente. A adoção de um formato de arquivo proprietário por
uma ampla comunidade de criadores de conteúdo, divulgadores e usuários, é muitas vezes
considerada um indicador confiável de longevidade do formato. Nesse sentido, os autores
apresentam que não existe, de fato, nenhuma fórmula infalível para decisões de política de
formato de arquivo.
Hodge e Frangakis (2004) enfatizam que o melhor formato para preservação de
longo prazo continua elusivo, talvez porque não há nenhuma resposta única para a pergunta,
afirmando, porém, que a maioria dos especialistas concorda que o melhor formato para
preservação é o que é menos proprietário, pois carrega aspectos significativos do original.
O que é consenso é que, como reafirmam Rog e Van Wijk (2008, p.1, tradução
nossa), “a escolha de um formato de arquivo específico no momento da criação, ou mais
tarde no ciclo de vida de um objeto digital influencia o acesso a longo prazo ao objeto
digital.”
Um trabalho nessa área que merece destaque foi o realizado pelo Arquivo do Estado
de Illinois, localizado no meio oeste dos Estados Unidos, que desenvolveu um guia para as
agências governamentais sobre a adoção de formatos de arquivos sustentáveis para registros
eletrônicos. A sustentabilidade refere-se à acessibilidade contínua ao longo do tempo, e,
nesse sentido, esses formatos devem abranger aos requisitos de formatos abertos ou não
proprietários, adoção e utilização generalizada, formatos autodescritivos e arquivos não
criptografados (WHITE, 2013).
8 FORMATOS DE ARQUIVOS PARA OBJETOS DE APRENDIZAGEM
Com base nas diretrizes e políticas do Florida Digital Archive (FLVC, 2013), do
The U.S. National Archives and Records Administration (NARA, 2010), do Illinois State
Archives (WHITE, 2013) e da Library of Congress (LIBRARY OF CONGRESS, 2014),
foram definidos os formatos de arquivos para os OAs implementados no SABER
Tecnologias Educacionais e Sociais, atendendo as vertentes de preservação e acesso de
objetos digitais. Essa definição objetiva estabelecer boas práticas de preservação digital,
3387
com relevante impacto futuro para o conhecimento produzido nos cursos desenvolvidos
pelo SABER.
8.1 Estratégia de normalização
A Estratégia de Normalização visa simplificar o processo de preservação através da
redução do número de formatos distintos que se encontram no repositório de objetos
digitais (FERREIRA, 2006). Os Formatos desenvolvidos para os OAs se pautam em texto,
imagem, áudio e vídeo. Nesse sentido, foi determinada a utilização de extensões específicas
para acesso e preservação de cada um desses formatos, conforme será apresentado nas
subseções a seguir.
8.1.1 Texto
Como extensões de preservação para texto, foram definidos o PDF/A (Portable
Document Format/Archives) nos formatos PDF/A-1, PDF/A-2 e o PDF/A-3, no caso de
arquivos de texto e o XML (Extensible Markup Language) no caso de texto para Web
(Quadro 1). (FLVC, 2013; LIBRARY OF CONGRESS, 2014; NARA, 2010; WHITE,
2013).
QUADRO 1- Padronização SABER - Formato de Arquivos Textuais - Preservação
TIPO
Textual
Textual
POLÍTICA DE FORMATO DE ARQUIVO (PRESERVAÇÃO)
FORMATO
BASE
RECOMENDAÇÃO
Portable Document
Recomenda-se que todos
Format Archives (PDF/A) ISO 19005-1:2005
os OAs em formato
ISO 19005-2:2011
PDF/A-1
textual devem ser
ISO 19005-3:2012
PDF/A-2
preservados no formato
PDF/A-3
PDF/A.
Recomenda-se que todos
XML (Extensible Markup World Wide Web
os cursos desenvolvidos
Language)
Consortium (W3C)
na web, utilizem a
linguagem XML.
Fonte: Os Autores, 2014.
Os formatos PDF/A-1, PDF/A-2 e o PDF/A-3 são advindos da versão 1.4, 1.7 e 1.7
do Adobe PDF respectivamente e foram adequados para a preservação a longo prazo de
documentos. Esses formatos se tornaram uma norma ISO (19005-1:2005), (19005-2:2011),
(19005-3:2012), respectivamente, desenvolvidos por um grupo de trabalho com
representantes do governo, da indústria e do meio acadêmico com o apoio ativo da Adobe
Systems Incorporated. Assim, essas são as extensões de arquivos mais difundidas para
preservação a longo prazo de textos. (FLVC, 2013; LIBRARY OF CONGRESS, 2014;
NARA, 2010; WHITE, 2013)
3388
O XML (Extensible Markup Language) também é bastante utilizado, pois permite a
preservação dos metadados associados e é adequado para informações em websites. É
mantido e desenvolvido pela World Wide Web Consortium (W3C), com o código aberto e
adoção universal por ser autodescritivo, requerendo associação com esquemas apropriados.
(FLVC, 2013; LIBRARY OF CONGRESS, 2014; NARA, 2010; WHITE, 2013)
Para fins de acesso (Quadro 2), foram definidos os formatos PDF (Portable
Document Format) e ODF (Open Document Format), cujas extensões de arquivo variam
dependendo do tipo específico de arquivo: .odt (processamento de texto), .ods (planilhas) e
.odp (apresentações). (FLVC, 2013; LIBRARY OF CONGRESS, 2014; NARA, 2010;
WHITE, 2013)
QUADRO 2 - Padronização SABER - Formato de Arquivos Textuais - Acesso
TIPO
Textual
Textual
POLÍTICA DE FORMATO DE ARQUIVO (ACESSO)
FORMATO
BASE
RECOMENDAÇÃO
Portable Document
Recomenda-se que todos os OAs em
Adobe Systems
Format (PDF)
formato textual devem ser
Incorporated
disponibilizados no formato PDF.
Recomenda-se que todos os OAs em
formato textual devem ser
disponibilizados no formato PDF ou
ODF (Open
ISO/IEC
ODT/ODS/ODP, extensão específica
Document Format)
26300:2006
para processamento de texto, planilhas
e apresentações, respectivamente.
Fonte: Os Autores, 2014.
Para fins de acesso, o PDF é um formato mundialmente utilizado, com o seu códigofonte aberto e bem aplicado para textos. O formato ODF é um formato aberto desenvolvido
pela Sun Microsystems e que se tornou um padrão ISO (ISO/IEC 26300:2006).
8.1.2 Imagem
Como formato de preservação para arquivos imagéticos (Quadro 3), foi definido o
formato TIFF (Tagged Image File Format), que é amplamente utilizado para fins de
preservação. O TIFF deve estar sem a utilização de compressão, e a resolução mínima
utilizada deve ser de 300dpi (dots per inch).
3389
QUADRO 3 - Padronização SABER - Formato de Arquivos Imagéticos - Preservação
POLÍTICA DE FORMATO DE ARQUIVO (PRESERVAÇÃO)
TIPO
Imagem
FORMATO
Tagged Image File Format
(TIFF)
TIFF, Revision 6.0 and
earlier
TIFF Uncompressed File
with Exif Metadata
BASE
Adobe Systems
Incorporated
RECOMENDAÇÃO
Recomenda-se que todos os
OAs nativos digitais ou
gerados a partir de escâneres
ou máquinas fotográficas
devem possuir a resolução
mínima de 300dpi e ser
preservados na extensão TIFF.
Fonte: Os Autores, 2014.
Para fins de acesso, o formato escolhido (Quadro 4) foi o JPEG (Joint Photographic
Experts Group). Esse é um dos formatos mais conhecidos e utilizados na internet sendo
uma extensão de arquivo que possui características de perda na qualidade de imagem,
porém, sua utilização para visualização, acesso e disseminação na web são recomendadas.
Sua utilização atrelado aos dados EXIF (Exchangeable image file format for Digital Still
Camera), possibilitam informações técnicas da imagem embutidas na forma de metadados,
contribuindo para o registro de dados e informações. (FLVC, 2013; LIBRARY OF
CONGRESS, 2014; NARA, 2010; WHITE, 2013)
QUADRO 4 - Padronização SABER - Formato de Arquivos Imagéticos - Acesso
POLÍTICA DE FORMATO DE ARQUIVO (ACESSO)
TIPO
Imagem
FORMATO
BASE
JPEG file with Exif
metadata
ISO/IEC 10918
ISO/IEC 14495
RECOMENDAÇÃO
Recomenda-se que todos os
OAs sejam disponibilizados
para fins de disseminação com
o formato JPEG com dados
EXIF.
Fonte: Os Autores, 2014.
8.1.3 Áudio
Para arquivos de áudio, o formato para fins de preservação adotado (Quadro 5) foi o
BWF ou BWAVE (Broadcast WAVE Format), que é um formato desenvolvido pela
European Broadcasting Union. Ele é uma variante do formato Microsoft Wave, porém suas
especificações são abertas, autodescritivas, descompactadas e compatíveis com qualquer
software que aceite a extensão .wav. (FLVC, 2013; LIBRARY OF CONGRESS, 2014;
NARA, 2010; WHITE, 2013)
3390
QUADRO 5 - Padronização SABER - Formato de Arquivos Áudio - Preservação
POLÍTICA DE FORMATO DE ARQUIVO (PRESERVAÇÃO)
TIPO
FORMATO
Broadcast WAVE file,
version 1, with LPCM
encoded audio.
Broadcast WAVE file,
version 2, with LPCM
encoded audio.
Áudio
BASE
RECOMENDAÇÃO
EBU Tech 3285 Specification of the
Broadcast Wave Format
(BWF) - Version 1 second edition (2001)
Recomenda-se que todos OAs
em formato de áudio,
principalmente os advindos do
Projeto Sintonia Saúde, sejam
gerados para fins de
preservação no formato BWF.
Fonte: Os Autores, 2014.
Para acesso, o formato escolhido (Quadro 6) foi MP3 (MPEG Layer III Audio
Encoding), que é um formato de arquivo bastante universal e divulgado para registro sonoro
em meio digital. (FLVC, 2013; LIBRARY OF CONGRESS, 2014; NARA, 2010; WHITE,
2013)
QUADRO 6 - Padronização SABER - Formato de Arquivos Áudio - Acesso
TIPO
Áudio
POLÍTICA DE FORMATO DE ARQUIVO (ACESSO)
FORMATO
BASE
RECOMENDAÇÃO
Recomenda-se que todos OAs em
MP3
MPEG-1:
formato de áudio, principalmente os
(MPEG Layer III
11172-3 MPEG- advindos do Projeto Sintonia Saúde,
audio encoding)
2: 13818-3
sejam gerados para fins de acesso no
formato mp3.
Fonte: Os Autores, 2014.
8.1.4 Vídeo
Os formatos de preservação para vídeo escolhidos (Quadro 7) foram o MPEG-4
(Motion Picture Experts Group) salvo com compactação sem perdas de qualidade e o
Motion JPEG 2000 (Joint Photographic Experts Group), usando a compactação sem perdas,
nas extensões .mj2 e .mjp2. (FLVC, 2013; LIBRARY OF CONGRESS, 2014; NARA,
2010; WHITE, 2013)
3391
QUADRO 7 - Padronização SABER - Formato de Arquivos Vídeo - Preservação
TIPO
Vídeo
Vídeo
POLÍTICA DE FORMATO DE ARQUIVO (PRESERVAÇÃO)
FORMATO
BASE
RECOMENDAÇÃO
Recomenda-se que todos OAs em
formato de vídeo, principalmente os
MP4 File Format
advindos da apresentação de
ISO/IEC 14496MPEG-4 file format,
disciplinas, vídeos complementares,
14:2003
version 2
entre outros, sejam gerados para fins
de preservação no formato MP4 sem
compactação.
Recomenda-se que todos OAs em
formato de vídeo, principalmente os
advindos da apresentação de
ISO/IEC 15444disciplinas, vídeos complementares,
Motion JPEG 2000
3:2004
entre outros, sejam gerados para fins
de preservação no formato .mj2 ou
.mjp2.
Fonte: Os Autores, 2014.
O MPEG-4 foi desenvolvido pela Motion Picture Experts Group e é um formato de
padrão aberto, que oferece suporte à incorporação de metadados descritivos, para ajudar a
apoiar o acesso futuro. Já o Motion JPEG 2000 é um formato padrão aberto internacional
baseado na ISO/IEC 15444-3:2004. (FLVC, 2013; LIBRARY OF CONGRESS, 2014;
NARA, 2010; WHITE, 2013)
Como formato para acesso, foi escolhido (Quadro 8) o formato MPEG-4 (Motion
Picture Experts Group), porém salvo com compactação para possibilitar o acesso ao
conteúdo do vídeo, com tamanho menor, sem perdas visuais de qualidade. (LIBRARY OF
CONGRESS, 2014)
QUADRO 8 - Padronização SABER - Formato de Arquivos Vídeo - Acesso
TIPO
Vídeo
POLÍTICA DE FORMATO DE ARQUIVO
FORMATO
BASE
RECOMENDAÇÃO
Recomenda-se que todos os OAs em
ISO/IEC 14496- formato de vídeo, sejam disseminados
MPEG-4
para fins de acesso no formato MP4
2:2004
com compactação.
Fonte: Os Autores, 2014.
9 CONSIDERAÇÕES FINAIS
A implementação de formatos de arquivos para OAs com o propósito de determinar
políticas específicas, que facilitem a preservação digital no SABER Tecnologias
Educacionais e Sociais é apenas uma pequena iniciativa diante de um ciclo, que deverá ter
3392
continuidade, para viabilizar o acesso a longo prazo da memória científica do SABER
Tecnologias Educacionais e Sociais da UFPE.
Outras vertentes que já se encontram em andamento, também visando ao
armazenamento e à preservação dos objetos são: 1) a definição de diretrizes que resguardem
a propriedade intelectual dos autores e contribuidores responsáveis pela criação dos OAs,
levando em consideração a legislação brasileira vigente sobre direitos autorais e
propriedade intelectual. 2) a criação de políticas e ações de guarda, armazenamento e
backup dos conteúdos digitais, levando em conta que tanto os ambientes virtuais do grupo
SABER quanto os ambientes de desenvolvimento de cursos e OAs encontram-se, hoje,
hospedados na nuvem da empresa Amazon (http://aws.amazon.com/pt/).
Os autores agradecem ao Ministério da Saúde e à Universidade Aberta do Sistema
Único de Saúde (UNA-SUS) pelo apoio necessário à execução dos trabalhos apresentados
nesse artigo.
REFERÊNCIAS
ARELLANO, M. A. Preservação de documentos digitais. Ciência da Informação,
Brasília, v. 33, n. 2, p. 15-27, maio/ago. 2004. Disponível em:
<http://eprints.rclis.org/archive/00002940/01/Ci%5B1%5D.Inf-2004-343.pdf>. Acesso em:
10 maio. 2014.
BIA PLATAS, A.; SÁNCHEZ QUERO, M. Desarrollo de una política de preservación
digital: tecnología, planificación y perseverancia. Cervante Virtual, Alicante, Espanã, p. 110, 2002. Disponível em:
<http://www.cervantesvirtual.com/research/articles/JBIDI02a.pdf>. Acesso em: 26 maio
2014.
BETTIO, R. W. de; MARTINS, A. Objetos de aprendizado: um novo modelo direcionado
ao ensino a distância. 17 dez. 2004. Universia Brasil. Disponível em:
<http://noticias.universia.com.br/destaque/noticia/2004/12/17/493047/bjetos-aprendizadoum-novo-modelo-direcionado-ao-ensino-distncia.pdf>. Acesso em: 10 jun. 2014.
BROWN, A. Digital preservation guidance note 1: selecting file formats for long-term
preservation. The National Archives, Reino Unido, p. 1-10, 2008. Disponível em:
<https://www.nationalarchives.gov.uk/documents/selecting-file-formats.pdf>. Acesso em:
22 jun. 2014.
CONSELHO NACIONAL DE ARQUIVOS (CONARQ). Carta para preservação do
patrimônio arquivístico digital: preservar para garantir o acesso. Rio de Janeiro: Conarq,
2005. Disponível em: <http://www.conarq.arquivonacional.gov.br/media/carta.pdf>.
Acesso em: 4 jun. 2014.
ERPANET. Digital preservation policy tool. Glasgow: ERPANET, 2003. Disponível em:
< http://www.erpanet.org/guidance/docs/ERPANETPolicyTool.pdf>. Acesso em: 10 jul.
2014.
3393
FERREIRA, M. Introdução à preservação digital: conceitos, estratégias e actuais
consensos. Guimarães: Escola de Engenharia da Universidade do Minho, 2006. 85p.
Disponível em: <https://repositorium.sdum.uminho.pt/bitstream/1822/5820/1/livro.pdf>.
Acesso em: 10 jun. 2014.
FLVC. Florida Virtual Campus. Recommended data formats for preservation purposes
in the Florida Digital Archive. Flórida: FLVC, nov. 2013. Disponível em:
<http://fclaweb.fcla.edu/uploads/recFormats_2.pdf>. Acesso em: 2 jun. 2014.
HEDSTROM, M. Digital preservation: a time bomb for digital libraries. Language
Resources and Evaluation, v. 31, n. 3, maio 1997. Disponível em: <
http://www.springerlink.com/content/h73v57h6587k4l7n/fulltext.pdf>. Acesso em: 7 abr.
2008.
HODGE, G.; FRANGAKIS, E. Digital preservation and permanent acess to scientific
information: the state of the practice. Oak Ridge: CENDI, 2004. Disponível em:
<http://cendi.dtic.mil/publications/04-3dig_preserv.pdf>. Acesso em: 24 jun. 2014.
LIBRARY OF CONGRESS. Sustainability of digital formats: planning for Library of
Congress collections: format descriptions. Washington: The Library of Congress, 2014.
Disponível em: <http://www.digitalpreservation.gov/formats/fdd/descriptions.shtml>.
Acesso em: 12 jun. 2014.
LONGMIRE, W. A primer on learning objects. Virginia: American Society for Training
& Development, 2001.
MICHEL, M. H. Metodologia e pesquisa em ciências sociais. 2. ed. São Paulo: Atlas,
2009.
MORAN, J. M. As múltiplas formas do aprender. São Paulo, Jul. 2005. Entrevista
concedida a Revista Atividades & experiências. Disponível em:
<http://ucbweb.castelobranco.br/webcaf/arquivos/23855/6910/positivo.pdf>. Acesso em: 24
jun. 2014.
NARA. The U.S. National Archives and Records Administration. Preservation: digital file
types. College Park: NARA, 2010. Disponível em:
<http://www.archives.gov/preservation/products/definitions/filetypes.html>. Acesso em: 10
jun. 2014.
RIMKUS, K. et al. Digital preservation file format policies of ARL member libraries: an
analysis. D-Lib Magazine, v. 20, n. 3/4, mar./abr. 2014. Disponível em:
<http://www.dlib.org/dlib/march14/rimkus/03rimkus.print.html>. Acesso em: 26 jun. 2014.
ROG, J.; VAN WIJK, C. Evaluating file formats for longterm preservation. Den Haag:
National Library of the Netherlands, 2008. p. 1-11. Disponível em:
<http://www.kb.nl/sites/default/files/docs/KB_file_format_evaluation_method_27022008.p
df>. Acesso em: 25 jun. 2014.
SÁ FILHO, C. S. e; MACHADO, E. de C. O computador como agente transformador
da educação e o papel do objeto de aprendizagem. 17 dez. 2004. Universia Brasil.
Disponível em:
<http://noticias.universia.com.br/destaque/noticia/2004/12/17/493049/omputador-comoagente-transformador-da-educao-e-papel-do-objeto-aprendizagem.pdf>. Acesso em: 10 jun.
2014.
3394
SOUZA, J. de; VIERA, F. G. A Tecnologia Open Archives Initiative, Object Reuse and
Exchange: histórico e perspectivas. DataGramaZero, Rio de Janeiro, v. 13, n. 2, abr. 2012.
Disponível em: <http://www.dgz.org.br/abr12/Art_04.htm>. Acesso em: 15 set. 2014.
WHITE, J. Sustainable file formats for electronic records: a guide for government
agencies. Springfield: Illinois State Archives, 2013. Disponível em:
<http://www.cyberdriveillinois.com/departments/archives/records_management/sustainable
formats.html>. Acesso em: 25 jun. 2014.
WILEY, D. Connecting learning objects to instructional design theory: a definition, a
metaphor, and a taxonomy. In: WILEY, D. (Ed.). The instructional use of learning
objects: on line version. Bloomington: Association for Instructional Technology, 2000.
Disponível em: <http://reusability.org/read/chapters/wiley.doc>. Acesso em: 20 jun. 2014.
3395
A INTERAÇÃO DO USUÁRIO COM CATÁLOGOS BIBLIOGRÁFICOS ON-LINE
DE BIBLIOTECAS UNIVERSITÁRIAS 91
USER INTERACTION WITH ONLINE BIBLIOGRAPHIC CATALOG FROM UNIVERSITY
LIBRARIES
Flavia Maria Bastos
Silvana Aparecida Borsetti Gregorio Vidotti
Resumo: Este estudo92 tem como objetivo identificar as formas de interação do usuário
com ocatálogo bibliográfico on-line, no processo de busca da informação, de modo a
encontrar recursos bibliográficos. Para o desenvolvimento desta pesquisa foi escolhida a
metodologia da Teoria Fundamentada (Grounded Theory), visando identificar padrões
durante o processo de busca de informação realizado pelo usuário assim como perceber sob
que condições esses padrões são estabelecidos, quando se aplicam os dados num referido
contexto. Para tanto, os dados coletados e analisados compreendem o período de 2008 a
2012, possibilitando a identificação das categorias centrais de usuários por meio da
realização de diversos refinamentos desses dados alcançados com uma análise comparativa
constante até chegar à saturação deles dados. Os dados foram agrupados em dimensões de
opções de busca, staff, bases de dados, áreas de conhecimento, e tempo (ano, mês e
semestre), que identificam diversos padrões nas formas de interação das categorias centrais
de usuário com o catálogo bibliográfico on-line. Os resultados são apresentados por meio
de características gerais dos padrões evidenciados pelos dados e também pelas categorias
centrais de usuário. Desta forma, os dados demonstram o perfil e a preferência do usuário
por uma interação rápida com o sistema, que se caracteriza pelo anonimato, em função da
maioria dos usuários não se identificar ao realizar suas pesquisas e ao utilizar a opção de
busca default do sistema. Evidenciam o comportamento atual do usuário, que deve ser
absorvido pelos gestores de catálogos bibliográficos durante suas ações futuras, norteandolhes as práticas biblioteconômicas com foco no usuário.
Palavras-chave: Catálogos bibliográficos. Teoria Fundamentada. OPAC – Online Public
Access Catalog.
Abstract: The objective of this research is to identify the ways user interact with Online
Public Access Catalogs in his process of information search to find bibliographic resources.
For the development of this research the chosen methodology was the Grounded Theory, in
order to identify patterns during the information search, as well as the conditions under
which these patterns are established when the data is applied in a context. To achieve this,
the collected and analyzed data cover the period from 2008 to 2012, allowing the
identification of core categories of users through various refinements of the data with a
constant comparative analysis until reaching data saturation. Thus, the data were gathered
into dimensions of search options, staff, databases, knowledge areas, and time (year, month
and semester), allowing the identification of different forms of interaction patterns from the
core categories of users with the online bibliographic catalog. Results are presented by
91
92
Texto derivado: BASTOS, F. M. A interação do usuário com catálogos bibliográficos online : investigação a partir da Teoria Fundamentada. 2013. 257f. Tese (Doutorado em Ciência
da Informação) – Faculdade de Filosofia e Ciências, Universidade Estadual Paulista, Marília,
2013.
Financiamentos da pesquisa: CNPq PQ – Processo: 308443/2010-1; CNPq CHSSA – Processo:
407149/2012-0; CNPq Universal – Processo: 486147/2011-8.
3396
general characteristics of the highlighted data and also by the core categories of users. The
data demonstrate the profile and user preferences for a quick interaction with the system,
characterized by anonymity, since most users do not identify themselves when conducting
their research and use the default search option to the system. This way, the patterns of
interaction demonstrate the actual user search behavior, which must be absorbed and
understood by managers of bibliographic catalogs during their future actions, in order to
guide Librarianship practices with focus on the end user.
Keywords: Bibliographic Catalog. Grounded Theory. OPAC - Online Public Access
Catalog.
1 INTRODUÇÃO
O presente estudo apresenta como tema a interação do usuário com o catálogo
bibliográfico on-line durante o processo de busca de informações.
Os catálogos bibliográficos, inseridos no contexto histórico das bibliotecas em
diversos momentos de sua evolução, no que tange ao desenvolvimento e ao uso de
tecnologias, são alvos constantes de estudos (VILLÉN-RUEDA, et al., 2007). Visam não
somente mensurar a eficácia do seu uso, como também revelar os problemas ocorridos
durante o processo de busca de informações.
Para tanto, considerando esses estudos, bem como a variedade de metodologias
aplicadas para avaliar o uso do catálogo on-line, questionamos como os usuários interagem
com os catálogos on-line de uma rede de bibliotecas universitárias, de modo a encontrar
recursos bibliográficos.
Assim, a partir desse questionamento estabelecemos como objetivo identificar a
forma de interação do usuário com o catálogo on-line de uma rede de bibliotecas
universitárias, por meio de um processo de busca de informação, de modo a encontrar
recursos bibliográficos.
Com este objetivo nos colocamos diante das diferentes formas de olhar, entender e
avaliar o usuário durante sua interação com o catálogo bibliográfico on-line, analisando,
mediante o seu comportamento os dados produzidos e armazenados internamente no
sistema.
Para o desenvolvimento deste trabalho foi aplicada a Teoria Fundamentada em
Dados (Grounded Theory), que neste caso não apresenta como objetivo coletar e analisar
dados para comprovar uma hipótese, mas sim produzir um conhecimento sobre as formas
de interação em catálogos automatizados. Desta forma, não se tem a fixação de uma teoria a
priori, mas sim a construção de uma reflexão teórica, tendo como subsídios os dados
coletados e as análises que geraram a necessidade de outras coletas de dados. Essa reflexão
foi estabelecida por um processo dinâmico que possibilitou a construção sistematizada de
3397
evidências sobre a realidade da interação dos usuários com os Online Public Access
Catalogs (OPAC), visando à identificação de padrões, bem como as condições que
evidenciam um determinado comportamento dos dados dentro de um contexto.
Os procedimentos metodológicos foram aplicados aos dados coletados no catálogo
bibliográfico on-line da UNESP (Catálogo Bibliográfico Athena) referente ao período de
2008 a 2012, que possibilitaram a identificação das categorias centrais de usuários por meio
dos diversos refinamentos dos dados produzidos e alcançados com análise comparativa
constante até chegar à saturação dos dados. Assim, os dados foram agrupados nas seguintes
dimensões: opções de busca, equipe da biblioteca (staff), bases de dados, áreas de
conhecimento e tempo (ano, mês e semestre), que possibilitaram identificar diversos
padrões nas formas de interação das categorias centrais de usuário com o catálogo
bibliográfico on-line.
O estudo foi estruturado em quatro seções, incluindo a introdução. A segunda seção
apresenta a revisão de literatura na área voltada para a interação do usuário, a metodologia a
partir do seu conceito, características e procedimentos que envolvem a Teoria
Fundamentada em Dados (Grounded Theory). Na seção seguinte, são explicitados e
discutidos os resultados obtidos e em seguida tem-se a conclusão.
Justificamos este estudo por considerarmos de extrema importância a descoberta de
modelos que representem a forma como os usuários utilizam os produtos e serviços
oferecidos pelas bibliotecas, visando ao aumento da interação entre o usuário e o sistema, a
partir da integração e retroalimentação dessas informações para os ambientes
informacionais.
As ações que ocorrem durante a prática biblioteconômica podem ser utilizadas em
benefício da gestão do próprio sistema informacional, bem como para o fortalecimento da
área, com base em subsídios teóricos e práticos que apresentem formas de processar os
dados gerados a partir da interação dos usuários.
2 REVISÃO DE LITERATURA
Na revisão de literatura apresentamos o posicionamento de alguns autores sobre a
influência da tecnologia na evolução das bibliotecas e consequentemente dos catálogos
bibliográficos, assim como sobre o reflexo da área da Ciência da Informação na interação
entre o usuário e o sistema, quando busca informações em uma biblioteca, por meio dos
catálogos automatizados.
Apesar das grandes mudanças tecnológicas, absorvidas pela estrutura social e
proporcionadas pelo avanço das Tecnologias de Informação e Comunicação (TIC), a
3398
biblioteca, como agente mediador na produção e nas formas estratégicas para a distribuição
da informação, necessita considerar os efeitos da implantação e do uso das TIC a partir de
uma reflexão constante do rumo que os ambientes informacionais, tais como os sistemas de
bibliotecas, estão tomando, principalmente sem observar a interação desses ambientes com
o próprio usuário.
Com a Internet, a interação do usuário com o sistema de biblioteca passa a ser mais
intensa, do processo de acesso à recuperação e ao uso da informação, com várias opções de
acesso a diversas fontes de informação. A partir dessas mudanças, notamos modificações no
comportamento do usuário quando produz conteúdo, quando navega nas redes digitais e
atua nos ambientes informacionais através de práticas colaborativas.
Nesse contexto, as bibliotecas universitárias mantêm suas funçõesligadas às
atividades voltadas para o ensino, pesquisa e extensão, ofertando serviços com foco no
atendimento das necessidades de informação dos vários grupos de usuários, de forma a
acompanhar seu constante desenvolvimento acadêmico-científico.
Os serviços gerados pelas bibliotecas universitárias, intensamente influenciados
pelas tecnologias, passam a ter as suas rotinas racionalizadas a partir dos sistemas de
automação, que agilizam os processos de recuperação e a transferência da informação,
tornando-as acessíveis para toda comunidade científica.
Como parte do contexto histórico das bibliotecas, os catálogos bibliográficos
estiveram presentes em diversos momentos de sua evolução e começaram como simples
inventários ou relação do conteúdo de determinada coleção (SHERA, 1969).
Os catálogos, considerados um dos principais meios de interação do usuário para
recuperação das informações armazenadas pelos sistemas de bibliotecas, com os avanços na
tecnologia, passam a oferecer aos usuários consultas aos catálogos das bibliotecas via Web.
Estes avanços proporcionaram a expansão dos catálogos automatizados presentes na maior
parte das bibliotecas contemporâneas, denominados Catálogos On-line de Acesso Público
(Online Public Access Catalogs – OPAC), que passaram a ser considerados um dos
módulos integrados do sistema de gerenciamento de bibliotecas, com suas funções,
objetivos e composição.
No entanto, a partir da influência das TIC em ambientes informacionais, como são
as bibliotecas, aumenta a necessidade de se ampliar o olhar sobre as novas formas de
interação do usuário com a biblioteca, em especial com o catálogo, de forma que os
usuários passem a ter autonomia na busca e na recuperação da informação desejada.
3399
Podemos considerar que as bibliotecas também enfrentam o desafio de assumir
condutas e práticas profissionais em consonância com uma perspectiva teórica da área, no
que tange a incorporação das tecnologias de comunicação e informação.
Como ciência interdisciplinar, Saracevic (1997) afirma que a Ciência da Informação
está relacionada com as Tecnologias de Informação e Comunicação, tendo uma forte
dimensão social e humana. Nesse sentido, o autor ressalta o interesse no diálogo com a
recuperação de informação multimídia e multilíngue, as bibliotecas virtuais, as buscas na
internet e os estudos de interação.
Na visão de Le Coadic (2004), o uso de um produto de informação ou de um
sistema de informação está relacionado a um efeito que satisfaça a uma necessidade de
informação, compreendendo a utilização, o uso e o consumo, considerando, assim, que a
função mais importante do produto ou do sistema é a maneira como a informação modifica
a realização das atividades dos usuários.
Le Coadic (2004) menciona um enfoque tradicional da Ciência da Informação
quando esta considera que o usuário chega a um sistema de informação com uma
necessidade de informação mais ou menos bem especificada; no entanto, o autor ressalta
que para o sistema oferecer ao usuário um melhor desempenho, a área deveria considerar
uma análise de suas necessidades de informação, uma vez que o ato de consultar o catálogo
pressupõe que este irá ajudá-lo a sanar suas necessidades informacionais.
Nesse sentido, reconhecemos a importância do conhecimento sobre as
circunstâncias que levam um usuário a dar início a um processo de busca de informações,
para compreendermos o efetivo uso dos diferentes sistemas, serviços e produtos a partir da
própria atuação do usuário em ambientes informacionais. Além disso, podemos considerar
que o ato de consultar um catálogo pressupõe que este irá ajudar o usuário a sanar suas
necessidades informacionais, pois a disponibilização de um sistema de informação só se
justifica a partir do momento em que ele é aceito pelo usuário, estabelecendo-se assim, uma
troca mútua entre ambos.
Le Coadic (2004) indaga o tipo de diálogo existente num processo de interação
informacional, afirmando que o componente central de todo sistema de informação é a
interação entre o usuário e o sistema, diretamente ou por intermédio de um terceiro,
ocasionando um diálogo entre dois participantes, sejam eles pessoa-pessoa ou pessoamáquina.
Lancaster (1996), ao refletir sobre os estudos referentes ao uso do catálogo divide-os
em duas categorias principais: os que se destinam a determinar a proporção dos usuários da
3400
biblioteca que fazem uso do catálogo, mencionando as características dos usuários e as dos
não usuários, e os estudos dos usuários que “sabidamente” usam o catálogo, sendo possível
descobrir como o usam e com qual finalidade, entre outras informações.
Lancaster (1996) também considera que a maioria dos estudos realizados se
concentra nos usuários que sabem utilizar o catálogo, pois nesses estudos os usuários são
observados durante o uso, proporcionando condições de reunir dados sobre padrões de uso
sem que eles saibam que suas ações estão sendo observadas.
Outra observação importante de Lancaster (1996, p.127) sobre os estudos de uso dos
catálogos diz respeito à forma como as buscas são realizadas; assim, uma busca pode ser
para:
1) Determinar se a biblioteca possui ou não determinado livro ou outro
item sobre autor ou título, ou ambos;
2) Identificar itens que a biblioteca possui e que tratam de determinado
assunto – busca por assunto (LANCASTER, 1996, p.49).
O autor (LANCASTER, 1996) considera que a avaliação da busca por um item
conhecido é muito mais fácil do que com as buscas por assunto, pois na primeira o usuário
encontra o que procura ou não encontra; já na busca por assunto, essa condição binária não
se aplica, uma vez que, na avaliação das buscas por assunto, para se considerar uma busca
bem-sucedida o usuário deverá ser capaz de obter uma coincidência entre seus termos de
busca e os que são usados nos catálogos.
Nesse contexto, Santos (2010) também expõe que o processo de busca de
informações envolve a identificação e a avaliação do usuário em relação às representações
dos recursos informacionais existentes nos ambientes informacionais que podem influenciar
sua decisão no momento do acesso.
Desta forma, investigamos a interação do usuário durante seu processo de busca de
informação no catálogo de bibliotecas da Unesp (Catálogo Bibliográfico Athena), extraindo
os elementos que indicam a interação do usuário via interface do catálogo.
A Rede de Bibliotecas da Unesp deu início ao seu processo de automação em 1994,
com a nítida preocupação, nesse percurso, não apenas com a construção do catálogo, bem
como com a qualidade de seus registros bibliográficos, o que se constata pelas decisões
tomadas ao longo desses anos, como a adoção de um padrão de formato internacional para
as informações bibliográficas: - a abrangência da base no que tange ao acesso a todo acervo
da universidade por toda comunidade usuária; - a produção do registro bibliográfico
visando à competitividade e à qualidade, tendo o registro bibliográfico como elemento
formador de uma base de dados com alcance e visibilidade nacional e internacional; - a
3401
uniformidade das entradas visando oferecer ao catalogador / indexador subsídios para a
adoção de termos uniformes na descrição dos documentos; - e pontos de acesso ao
documento que permitem a recuperação de um registro bibliográfico por qualquer dos
elementos que o compõem, e que são possibilidades presentes até os dias de hoje.
Esse fato demonstra como as convenções estabelecidas pelas comunidades de
prática, compostas pelos bibliotecários da Rede Unesp, permaneceram ao longo desse
período, acompanhando os desenvolvimentos da área, influenciados pelos avanços
tecnológicos.
Os dados utilizados nesta pesquisa foram extraídos do catálogo bibliográfico on-line
da Universidade Estadual Paulista UNESP, composta atualmente por 34 bibliotecas
distribuídas no Estado de São Paulo, e que disponibiliza seu catálogo bibliográfico on-line
desde 1998 à comunidade acadêmica.
Conforme os dados do Anuário Estatístico da UNESP de 2013, o acervo
bibliográfico está composto por 1.350.030 livros; 28.227 títulos de periódicos; 22.080 CDs,
vídeos e DVDs; 65.005 teses; e 150.488 outros materiais.
Ainda conforme o Anuário (2013), a Universidade apresentava o total de 3.625
docentes; 35.485 alunos de graduação; e 11.804 alunos de pós-graduação, totalizando
50.914 usuários potenciais do catálogo bibliográfico on-line, que realizaram 1.542.441
empréstimos e 583.9984 consultas.
Após a contextualização do ambiente informacional da Rede de Bibliotecas da
Unesp, apresentamos os princípios teóricos da Teoria Fundamentada em Dados que
nortearam sistematicamente os dados extraídos, produzidos a partir do uso do catálogo.
3 METODOLOGIA
Para o desenvolvimento deste estudo foi escolhida a Teoria Fundamentada em
Dados que tem sua origem na linha de pensamento de dois sociólogos: Glaser e Strauss
(1967), que consideram a análise comparativa como um aspecto central dessa teoria,
também citada como um método comparativo constante.
De acordo com Gasque (2008), a Teoria Fundamentada em Dados pode ser
considerada uma metodologia de natureza exploratória, orientada para os dados, pois estes
são coletados sem a preocupação de testar uma teoria está relacionada ao caráter
exploratório e indutivo da pesquisa, com a possibilidade de gerar teorias a partir de relações
conceituais.
A teoria caminha essencialmente a partir da interpretação dos dados analisados por
meio das etapas de codificação, que incluem as operações de constante comparação dos
3402
fenômenos, casos, conceitos, além de questões dirigidas ao texto que direcionam o
pesquisador para o desenvolvimento de teorias mediante um processo de abstração.
Assim, os dados coletados necessitam ser criteriosamente categorizados,
classificados para que se obtenha uma análise correta dos elementos e de suas articulações.
Essa categorização é fundamental, pois a reflexão sobre ela fornece categorias analíticas
que contribuirão para a construção da pesquisa.
Inicialmente, o método exige uma descrição exaustiva dos processos estudados e
dos resultados obtidos e, em seguida, uma análise interpretativa, que inclui a codificação
dos dados obtidos, observando-se a regularidade apresentada, buscando assim o significado
desses dados em um processo de conceitualização, a partir da descrição dos fenômenos
observados.
A Teoria Fundamentada em Dados já foi adotada em alguns estudos da área da
Ciência da Informação derivados da década de 1980, em Sheffield, com destaques para os
trabalhos desenvolvidos por Wilson (1981), Brown (1990), Soto (1992), Ellis (1993),
Powell (1999), e Mansourian (2006), que contribuíram para os estudos sobre o
comportamento de busca de informação, conforme menciona Sélden (2005, p.120) e Tan
(2010, p.94).
A Ciência da Informação, como área do conhecimento que se estabelece em um
contexto social contemporâneo, demanda métodos que possam ser aplicados no
desenvolvimento de estudos voltados para os comportamentos de busca, de recuperação, de
necessidade e de uso de informações presentes nas relações sociais nas quais os indivíduos
estão inseridos.
No contexto da Teoria Fundamentada em Dados, a análise dos dados é sistematizada
a partir da codificação, onde os dados coletados são fragmentados, conceituados e reunidos
de uma nova maneira. A codificação é composta por três etapas importantes: a codificação
aberta (open coding); a codificação axial (axial coding); e a codificação seletiva (selective
coding).
A codificação aberta tem por objetivo expressar os dados e os fenômenos na forma
de conceitos. Para isto, os dados são fragmentados e classificados em expressões para serem
relacionados às anotações e aos códigos.
Os dados utilizados nesta pesquisa foram extraídos do histórico dos eventos de
buscas realizados pelos usuários e que são registrados na tabela de dados que juntamente
com as demais tabelas de configuração do software, é armazenada no banco de dados
Oracle, responsável por armazenar e recuperar os dados utilizados pelo sistema.
3403
Assim, a partir da identificação dos eventos registrados na tabela de dados extraímos
e mapeamos o histórico das interações de um usuário relacionadas a pesquisas, navegação e
solicitações DSI porém, para atender aos objetivos desta pesquisa coletou-se o histórico das
interações do usuário na busca por informações em registros bibliográficos.
Os eventos da tabela de dados correspondem às ações realizadas pelos usuários na
busca (por palavras) da interface OPAC WEB. Esta interface oferece aos usuários dois tipos
de buscas, sendo elas: por lista e por palavras. Este estudo concentra-se nas interações dos
usuários que utilizaram a busca por palavra, em suas opções de campos disponíveis, para
realizarem suas consultas aos catálogos.
Os dados utilizados nesta pesquisa correspondem ao período de 01 de janeiro de
2008 a 31 de dezembro de 2012. Nesta coleta optou-se pela geração de um programa para
leitura e extração dos dados, ao invés de um comando de consulta – select – no banco de
dados, em função de uma série de motivos, sendo o principal a repetição do comando de
consulta para a retirada dos dados, que acarretaria uma possível lentidão no sistema, em
função do volume dos dados existentes.
Para a leitura e o processamento de cada linha dos registros armazenados na tabela
foram desenvolvidos programas na linguagem própria dos bancos de dados relacionais para
essencialmente, realizar a contagem dos registros utilizados neste estudo.
Os dados extraídos do catálogo OPAC WEB foram analisados de acordo com as
categorias de usuários estabelecidas por cada biblioteca, o que contribuiu para a elaboração
do critério de reagrupamento das categorias iniciais coletadas, possibilitando-nos identificar
as categorias centrais de usuário, conforme indicações metodológicas da Teoria
Fundamentada em Dados. O critério adotado como base para o reagrupamento das
categorias iniciais em centrais consistiu em agrupar categorias que dizem respeito aos
níveis de atuação na universidade: aluno de graduação, aluno de pós-graduação e docente.
No entanto, foi necessário criar o grupo “outras categorias”, onde inserimos todas aquelas
que poderiam ser classificadas em uma ou mais das categorias adotadas para o estudo, bem
como as que não faziam parte de nenhuma das categorias anteriores.
Na próxima seção apresentamos a análise dos dados, e os resultados obtidos após a
aplicação dos princípios teóricos da Teoria Fundamentada em Dados que nortearam
sistematização dos dados extraídos do catálogo.
3.1 Análise dos dados e resultados da pesquisa
Os dados utilizados neste estudo foram autorizados pela Coordenadoria Geral de
Bibliotecas (CGB) que gerencia o catálogo bibliográfico on-line da Unesp.
3404
Conforme a sistemática apresentada na seção anterior, no período de 01 de janeiro
de 2008 a 31 de dezembro de 2012 foram coletados os dados de 11.950.812 pesquisas
realizadas no tipo de busca por palavras realizadas no catálogo, sendo que 8.141.292
pesquisas foram realizadas dentro da Rede Unesp, correspondendo a 68% dos acessos, e
32% dos acessos foram realizados da Rede externa a Unesp, conforme TABELA 1.
TABELA 1 - Total de acessos por IP
Acessos por IP
Rede Unesp
8.141.292
68%
Rede Externa
3.809.520
32%
11.950.812
100%
TOTAL
Fonte: adaptado de BASTOS (2013, p.137)
Os dados evidenciaram que do total de 11.950.812 consultas realizadas no catálogo,
11.018.340 correspondem a 92% de usuários não identificados no sistema, sendo que
apenas 932.472 usuários se identificaram no sistema informando seu número de
identificação e senha, conforme TABELA 2.
TABELA 2 - Categoria de usuários identificados e não identificados
IDENTIFICADOS
932.472
8%
NÃO IDENTIFICADOS
11.018.340
92%
TOTAL
11.950.812
100%
Fonte: adaptado de BASTOS (2013, p.139)
A partir da coleta de dados no sistema identificamos as categoriais iniciais de
usuário que fazem parte da política de empréstimo de cada biblioteca local, sendo que,
conforme a necessidade, são criadas novas categorias. Num primeiro momento foi
necessário listar cada uma das categorias para posteriormente estabelecer uma definição,
que contribuiu para a elaboração do critério de reagrupamento das categorias iniciais
coletadas nos possibilitou identificar as categorias centrais de usuário, conforme indicações
metodológicas da Teoria Fundamentada em Dados.
Desta forma, as categorias centrais identificadas e reagrupadas com base nos níveis
de atuação na universidade foram: o aluno de graduação, o aluno de pós-graduação e o
docente. Foi necessário criar o grupo “outras categorias” para inserirmos uma ou mais
3405
categorias adotadas para o estudo, bem como as que não faziam parte de nenhuma das
categorias anteriores, conforme TABELA 3.
TABELA 3 - Percentual do total de buscas realizadas pelas categorias centrais
TOTAL GERAL
11.950.812
%
Aluno de graduação
Aluno de pós-graduação
Docente
Não identificado
Outras categorias
797.509
77.289
11.335
10.383.866
680.813
6,67%
0,65%
0,09%
86,89%
5,70%
Fonte: adaptado de BASTOS (2013, p.158)
Para uma análise geral da preferência nas opções de busca pelas categorias de
usuários, apresentamos uma compilação dos dados coletados, conforme TABELA 4.
TABELA 4 - Total de buscas (por palavras) por todos os campos, palavras de título,
palavras de autor e palavras de assunto, realizadas por todas as categorias de usuários
Total de buscas por palavras realizadas entre janeiro de 2008 e dezembro de 2012
Campo de busca
Número
%
Todos os campos
Palavras de título
Palavras de autor
Palavras de assunto
6.731.664
1.974.415
1.950.354
643.170
TOTAL
11.299.603
59,57%
17,47%
17,26%
5,69%
100,00%
Fonte: adaptado de BASTOS (2013, p.164)
Dando continuidade à análise geral sobre as preferências dos usuários em relação às
opções de busca, apresentamos um quadro geral com a compilação dos dados coletados,
relacionando as categorias centrais de usuário e todas as opções de busca consideradas neste
estudo, conforme QUADRO 1.
3406
QUADRO 1 - Total de buscas por palavras em todos os campos, título, autor e assunto e
por categorias centrais de usuários
Total de buscas (por palavras) realizadas entre janeiro de 2008 e dezembro de 2012
Campo de busca
Categoria de usuário
A - Aluno de
B - Aluno de
graduação
Pós-graduação
504.701
43.944
Todos os campos
Não
identificado
6.160.735
Palavras de título
1.823.927
127.562
13.624
2.436
Palavras de autor
1.792.156
134.372
16.122
3.129
607.048
30.874
3.599
441
10.383.866
797.509
77.289
11.335
Palavras de assunto
TOTAL
CDocente
5.329
Fonte: adaptado de BASTOS (2013, p.152)
Com base nos dados do QUADRO 1 analisamos a média das pesquisas realizadas
por categorias de usuários na busca em todos os campos, palavras de título, autor e assunto,
conforme apresentamos na TABELA 5.
TABELA 5 - Média das pesquisas realizadas por categorias de usuários na busca em todos
os campos, palavras de título, autor e assunto
Não identificado
Aluno de graduação
Aluno de pós-graduação
Docente
Média
Todos os campos
Palavra de
título
Palavra de
autor
59,33%
63,28%
56,86%
47,01%
56,62%
17,57%
16,00%
17,63%
21,49%
18,17%
17,26%
16,85%
20,86%
27,60%
20,64%
Palavra de
assunto
5,85%
3,87%
4,66%
3,89%
4,57%
Fonte: adaptado de BASTOS (2013, p.159)
Assim, considerando a média de usuários percebemos que a maioria das categorias
centrais utiliza a opção de busca configurada como padrão na interface, ou seja, a busca por
todos os campos, enquanto que os demais usuários selecionam uma opção de busca
diferente do padrão utilizado, conforme TABELA 6.
TABELA 6 - Escolha da opção de busca
Opção de busca padrão
56,62%
Escolha da opção de busca
43,38%
100,00%
Fonte: adaptado de BASTOS (2013, p.161)
3407
Desta forma, com o intuito de compreendermos a interação do usuário com o
catálogo, durante seu processo de busca de informações, identificamos os atributos de
relacionamentos que poderiam ser considerados na extração de dados para formar as
dimensões: tempo, bases de dados, área/curso, e opções de busca, visando oferecer
subsídios para identificarmos o processo de interação das categorias centrais de usuários
com o catálogo, durante seu processo de busca de informações.
Assim, para cada dimensão foram realizados diversos refinamentos, apresentados
com dados sintetizados a seguir:
Dimensão opção de busca – foram identificados os campos de busca com maior
incidência de uso, e como esses campos fazem parte da configuração padrão do sistema,
concentramos neles nossa análise, descartando outras opções de busca. Um demonstrativo
do montante das pesquisas realizadas podem ser visualizadas na TABELA 7.
TABELA 7 - Total geral – busca (por palavras) nos campos: todos os campos, palavras de
título, autor, assunto e outros campos.
Período:
01/01/2008
31/12/2012
Todos os campos
Palavra de título
Palavra de autor
Palavra de assunto
Outros campos
TOTAL GERAL
a Total GERAL
%
6.731.664
1.974.415
1.950.354
643.170
651.209
56,33%
16,52%
16,32%
5,38%
5,45%
11.950.812
100,00%
Fonte: adaptado de BASTOS (2013, p.162)
Dimensão staff – para identificação dos dados para esta dimensão mapeamos os IPs
(Internet Protocol) das máquinas utilizadas pelos bibliotecários pertencentes às equipes de
trabalho das bibliotecas da Unesp e, com isso, foi possível separar o total de pesquisas
realizadas pela equipe do total de pesquisas realizadas pelos usuários, conforme TAB. 8.
TABELA 8 - Total de pesquisas realizadas através de equipamentos das bibliotecas da
Unesp
NÃO STAFF
STAFF
TOTAL
Pesquisas
11.151.969
798.843
11.950.812
%
92,81%
7,19%
100%
Fonte: adaptado de BASTOS (2013, p.171)
3408
As equipes de trabalho estão divididas na Seção Técnica de Referência,
Atendimento ao Usuário e Documentação (STRAUD) e a Seção Técnica de Aquisição e
Tratamento da Informação (STATI). No quadro 2, detectamos que a preferência, tanto dos
bibliotecários de ambas as seções como do usuário não identificado, era pelo campo – todos
os campos, sendo seguido pelo campo – palavras de título, sendo a última opção de escolha
o campo – palavras de assunto.
QUADRO 2 - Campo pesquisado por seção
Total
Todos os
campos
Palavra de
autor
Palavra
de título
Não identificado
STRAUD
STATI
STATI-STRAUD
11.151.969
526.094
258.929
13.820
6.322.655
302.875
99.818
6.316
1.834.092
65.008
49.644
1.610
1.802.788
103.851
63.352
4.424
Palavra
de
assunto
601.442
22.879
18.150
699
TOTAL
11.950.812
6.731.664
1.950.354
1.974.415
643.170
Fonte: adaptado de BASTOS (2013, p.173)
Dimensão bases – para esta análise foram consideradas as trinta e cinco bases
lógicas, que possibilitam a recuperação do acervo individual de cada base e o catálogo
coletivo, conhecido pela sigla UEP. Os dados analisados apresentados demonstram que os
usuários preferem utilizar as bases locais ao catálogo coletivo, sendo que nas bases locais a
busca se dá por um item conhecido enquanto que na UEP, por reunir o acervo de todas as
bases, a busca é mais exploratória, conforme os dados da TABELA 9.
TABELA 9 - Todos os campos, palavras de título, autor e assunto – Catálogo Athena e
Média das Bases das Bibliotecas
UEP01 Catálogo
Athena
Média das
Bibliotecas
(%)
TOTAL
Todos os
campos
4.046.205
2.770.262
Palavra
de título
%
%
601.702
Palavra
de autor
%
531.975
Palavra de
assunto
%
142.266
68,57
14,87
13,15
3,52
56,67
19,50
17,30
6,53
Fonte: adaptado de BASTOS (2013, p.177)
Dimensão áreas de conhecimento – para análise dos dados referentes às áreas de
conhecimento
foram consideradas
as
informações
relacionadas
aos
cursos
de
aproximadamente 260 mil usuários, pois as informações sobre os cursos nem sempre são
inseridas pelas equipes de trabalho no cadastro do usuário. Os cursos existentes na Unesp
foram agrupados seguindo a tabela de áreas do Conselho Nacional de Pesquisa (CNPq). A
3409
análise dos dados com o percentual de utilização pelos usuários e campos de busca podem
ser visualizados na FIG. 1.
FIGURA 3 - Percentual de utilização de usuários e campos de busca por área de
conhecimento
Fonte: adaptado de BASTOS (2013, p.189)
3410
Dimensão tempo – diante da amplitude do período, de janeiro de 2008 a dezembro
de 2012, procuramos identificar a forma de interação do usuário com o catálogo on-line
considerando a dimensão temporal, sendo que para isso extraímos os dados relativos a ano,
semestre e mês. Esses dados foram exaustivamente refinados e para que se tenha essa
dimensão, apresentamos somente a síntese realizada com os dados relativos ao ano,
conforme QUADRO 3.
QUADRO 3 - Total de buscas (por palavras) por todos os campos, palavras de título, autor
e assunto – por categoria de usuários – 2008 a 2012
2008
2009
2010
2011
2012
Não identificado
A – Aluno de graduação
B – Aluno de pósgraduação
C – Docente
Não identificado
A – Aluno de graduação
B – Aluno de pósgraduação
C – Docente
Não identificado
A – Aluno de graduação
B – Aluno de pósgraduação
C – Docente
Não identificado
A – Aluno de graduação
B – Aluno de pósgraduação
C – Docente
Não identificado
A – Aluno de graduação
B – Aluno de pósgraduação
C – Docente
Todos os
campos
1.054.101
100.106
Palavras de Palavras de Palavras de
título
autor
assunto
351.625
365.191
147.727
28.408
31.405
9.378
8.864
3.322
4.091
1.126
835
1.300.399
110.069
325
400.445
30.628
503
415.096
32.024
60
157.899
7.945
8.870
2.709
3.366
928
848
1.312.744
109.108
504
376.928
26.019
557
368.547
28.011
137
115.267
5.426
8.821
2.769
3.218
483
1.040
1.324.926
104.160
413
364.091
23.340
688
338.762
23.678
68
104.751
4.609
9.574
2.475
3.145
573
1.381
1.168.565
81.258
540
330.838
19.167
735
304.560
19.254
136
81.404
3.516
7.815
2.349
2.302
489
1.225
654
722
40
Fonte: adaptado de BASTOS (2013, p.190)
Com o estabelecimento das categorias a serem analisadas neste estudo realizamos a
etapa de codificação aberta que, conforme a Teoria Fundamentada em Dados, compreende o
agrupamento das categorias. E em função da grande quantidade de dados relacionados às
ações dos usuários percebemos que era possível realizar agrupamentos das categorias de
3411
usuários com os padrões identificados a partir dos dados da interação do usuário com o
catálogo OPAC.
4 CONCLUSÕES
Neste estudo apresentamos as formas de interação do usuário com os catálogos
bibliográficos on-line de uma rede de bibliotecas universitárias, durante o processo de busca
de informação.
Para identificarmos as formas de interação aplicamos as etapas da Teoria
Fundamentada em Dados, a partir dos dados coletados no catálogo bibliográfico on-line da
Unesp, e realizamos diversos refinamentos que possibilitaram a identificação de categorias
centrais de usuários e de seus padrões, utilizados durante o processo de busca por
informação.
Dessa forma, a preferência da maioria dos usuários ao interagir com o catálogo
durante seu processo de busca demonstra que eles optam por uma busca rápida, adotando a
opção de busca padrão do catálogo e de forma anônima, ou seja, sem se identificarem no
sistema. Os dados evidenciam que apesar dos recursos disponíveis nos catálogos
bibliográficos, em função dos avanços tecnológicos, os usuários não utilizam os serviços
oferecidos.
Outra evidência observada nos dados é que os usuários, ao realizarem suas opções
de busca no catálogo preferem realizá-las por um item conhecido, utilizando a busca por
autor ou por título, deixando em última opção a busca por assunto, que possibilitaria a
exploração da coleção sobre um determinado assunto.
A identificação de um perfil de usuário, estabelecido a partir da evidência de dados
coletados das suas próprias ações, oferece subsídios para os gestores de bibliotecas
universitárias fundamentarem seus planejamentos por meio de ações futuras adequadas à
real necessidade informacional da comunidade usuária. Sendo assim, tanto é possível
realizar ajustes junto à interface, como antecipar tendências relacionadas à disponibilização
de novos serviços online.
Durante o levantamento dos dados também observamos a possibilidade e
desenvolvimento de pesquisas futuras complementares a essa, considerando quantidade e
qualidade dos dados armazenados no banco de dados que gerencia o sistema.
Assim, os padrões de interação do usuário com o catálogo bibliográfico on-line da
Unesp, que evidenciam o comportamento atual do usuário, devem ser absorvidos pelos
gestores de catálogos bibliográficos durante suas ações futuras para nortear as práticas
biblioteconômicas com foco no usuário.
3412
REFERÊNCIAS
BASTOS, F. M. A interação do usuário com catálogos bibliográficos on-line :
investigação a partir da Teoria Fundamentada. 2013. 257f. Tese (Doutorado em Ciência da
Informação) – Faculdade de Filosofia e Ciências, Universidade Estadual Paulista, Marília,
2013.
CONSELHO NACIONAL DE DESENVOLVIMENTO TECNOLÓGICO. Tabela das
Áreas do Conhecimento. Brasília, CNPq, 2012. Disponível em:
<http://www.cnpq.br/documents/10157/186158/TabeladeAreasdoConhecimento.pdf>.
Acesso em: 20 out. 2013.
GASQUE, K. C. G. D. O pensamento reflexivo na busca e no uso da informação na
comunicação científica. 2008. 240f. Tese (Doutorado em Ciência da Informação) Faculdade de Economia, Administração, Contabilidade e Ciência da Informação,
Universidade de Brasília, Brasília, 2008.
GLASER, B. G.; STRAUSS, A. L. The discovery of grounded theory. Chicago: Aldine,
1967.
LANCASTER, F. W. Avaliação de serviços de bibliotecas. Tradução de Antonio Agenor
Briquet de Lemos. Brasília: Briquet de Lemos, 1996. 356 p.
LE COADIC, Y-F. A ciência da informação. Brasília: Briquet de Lemos, 2004.
ONLINE PUBLIC ACCESS CATALOGUE. Disponível em:
<http://www.librarynet.com.my/pls/angkasa/opac3.search_form?pc_product=OPAC>.
Acesso em: 20 out. 2013.
SANTOS, P. L. V. A. da C. Catalogação revisitada: sua história e contemporaneidade.
2010. 168f. Tese (Livre Docência) – Faculdade de Filosofia e Ciências, Universidade
Estadual Paulista, Marília, 2010.
SARACEVIC, T. Interdisciplinary nature of information Science. Ciência da Informação,
Brasília, v. 24, n. 1, p. 36-41, 1997.
SÉLDEN, L. On the Grounded Theory – with some malice. Journal of Documentation,
Bingley, v. 61, n. 1, p. 114-129, 2005.
SHERA, J. H.; EGAN, M. E. Catálogo sistemático: princípios básicos e utilização.
Brasília: Ed.UnB, 1969.
TAN, J. Grounded theory in practice: issues and discussion for new qualitative researchers.
Journal of Documentation, Bingley, v. 66, n. 1, p.9 3-112, 2010.
UNIVERSIDADE ESTADUAL PAULISTA. Anuário estatístico 2013. São Paulo, 2013.
311 p.
VILLÉN-RUEDA, L.et al. The use of OPAC in a large academic library: a transactional log
analysis study of subject searching. The Journal of Academic Librarianship, v. 33, n. 33,
p. 327-337, 2007.
3413
REDES SOCIAIS EM BIBLIOTECAS: TRABALHOS APRESENTADOS NO XVII
SNBU
SOCIAL NETWORKS IN LIBRARIES: PAPERS PRESENTED AT THE XVII SNBU
Maira Nani França
Angela Maria Grossi de Carvalho
Resumo: As redes sociais têm um papel importante na sociedade contemporânea. Além da
inter-relação e interatividade proposta por essas mídias sociais, é importante observar como
elas podem ser exploradas pelos diversos atores sociais, tais como as bibliotecas. Para
atender as demandas dos usuários, as bibliotecas universitárias passaram a perceber a
crescente necessidade de utilizar recursos tecnológicos, incluindo nesse contexto o uso das
redes sociais. Se, por um lado, a tecnologia auxilia em processos mais dinâmicos,
interativos e participativos, por outro, revela a fragilidade de muitas bibliotecas
universitárias e cria resistências, mau uso e falta de habilidade na operação dos recursos.
Este artigo analisa os trabalhos publicados nos anais eletrônicos do XVII Seminário
Nacional de Bibliotecas Universitárias em sua última edição, em 2012, visando identificar
como as bibliotecas universitárias têm utilizado as redes sociais como canal de
comunicação direta com seus usuários a fim de contribuir para melhoria da qualidade das
atividades relacionadas ao ensino, à pesquisa e à extensão. Na oportunidade foram
utilizados como categorias de análise os autores mais citados/temática central; a definição
de redes sociais e suas características; os tipos de redes sociais utilizados pelas bibliotecas;
a importância do uso dessas plataformas nas bibliotecas universitárias; e a competência
informacional do bibliotecário nesse novo cenário tecnológico. Espera-se que este trabalho
possa contribuir com as discussões sobre o uso das redes sociais pelas bibliotecas e fornecer
subsídios para a capacitação dos profissionais da informação de modo a que possam atender
as demandas dessa nova configuração da Sociedade da Informação.
Palavras-chave: Rede social. Biblioteca universitária. Tecnologias da Informação e da
Comunicação.
Abstract: Social networks have an important role in contemporary society. Besides the
interrelatedness and interactivity proposed by these social media, it is important to note how
they can be exploited by various social actors, such as libraries. To meet the demands of
users, university libraries began to realize the growing need of using technological
resources, including the use of social networks. If on one hand the technology helps
in making a more dynamic, interactive and participative processes, on the
other hand, it reveals the fragility of many university libraries and generates resistance,
misuse and lack of skill in the operation of the resources. This article reviews the
papers published in the electronic proceedings of the last edition of the XVII National
Seminar of University Libraries, in 2012, to identify how academic libraries have been
using social networks as a direct communication channel with their users to improve the
quality of teaching, research and extension related activities. On that occasion, the
analyzed categories were: the most cited authors/central theme; the definition of social
networks and their characteristics; types of social networks used by libraries; the
importance of using these platforms by the university libraries and librarian literacy in this
new technological landscape. We hope that this work will contribute to discussions on the
use of social networks by libraries and encourage the training of information
professionals so they can meet the demands of this new configuration of the Information
Society.
3414
Keywords: Social network. University library. Information and Communication
Technologies
1 INTRODUÇÃO
As mudanças ocorridas com a introdução da internet na chamada Sociedade da
Informação transformaram não só o modo de consumir, como também de produzir e
processar a informação. Com a ampliação do acesso e da velocidade da conexão, a
mobilidade e a convergência, a evolução das tecnologias de informação e comunicação
(TIC) foi responsável por impulsionar, a partir da década de 1960, o acesso ao
conhecimento. “A mediação digital remodela certas atividades cognitivas fundamentais que
envolvem a linguagem, a sensibilidade, o conhecimento e a imaginação inventiva” (LÉVY,
1998, p. 17).
A partir de então emerge um novo tipo de sociedade: a Sociedade em Rede. Apesar
de a estrutura social ser a responsável por formar a tecnologia, em função das suas
necessidades, valores e/ou interesses, esta “é condição necessária, mas não suficiente para a
emergência de uma nova forma de organização social baseada em redes, ou seja, na difusão
de redes em todos os aspectos da actividade na base das redes de comunicação digital”
(CASTELLS, 2005, p. 17).
A concepção de sociedade em rede surge num momento de expansão social, na
exploração de novos territórios, na utilização de bens e serviços, levando em consideração
um novo paradigma desenhado com a evolução da sociedade industrial para a pósindustrial. No entanto, a organização social em forma de rede não é recente e traz em seu
bojo benefícios e malefícios. Se, por um lado, estimula a organização flexível e adaptável,
por outro lado, em muitos momentos não foi capaz de ampliar e organizar recursos
necessários de modo a abarcar a dimensão e a complexidade de organização necessária para
tal feito. Com a possibilidade de aproximação cada vez mais presente, o uso das redes se
tornou um meio importante para o desenvolvimento social. Podendo ser vista como uma
“coluna vertebral da sociedade em rede”, as redes de comunicação digital eram as infraestruturas necessárias para que a sociedade industrial fosse construída, transcendendo
fronteiras, materializando a aldeia global, ou redes globais de capital, bens, serviços,
comunicação, informação, ciência e tecnologia (CASTELLS, 2005, p. 18).
Com base nessa concepção, podemos compreender que a sociedade em rede
auxilia no processamento e na distribuição de informação por meio dos ativos acumulados
nos nós dessas redes. Além disso, a concepção de sociedade em rede faz com que se
manifeste a transformação da sociabilidade, por um lado, com a desaceleração da interação
3415
face a face e o crescimento no isolamento das pessoas diante dos computadores, e, por outro
lado, com o uso social e político das ferramentas digitais, que faz com que a sociedade em
rede seja vista como uma sociedade hipersocial, em que pessoas integram tecnologias às
suas vidas, em atividades cotidianas, transformando a realidade virtual em virtualidade real,
que impacta diretamente na sociabilidade. Mudança essa que não pode ser exclusivamente
consequência da Internet, mas que de acordo com Castells (2005, p. 23) é suportada pela
própria lógica das redes de comunicação, sendo a emergência do individualismo em rede, já
que “as novas tecnologias de comunicação adaptam-se perfeitamente na forma de construir
sociabilidades em redes de comunicação auto-selectivas, ligadas ou desligadas dependendo
das necessidades ou disposições de cada indivíduo”.
Nessa perspectiva, com a melhoria dos dispositivos e a evolução da Web
(1.0, 2.0 e assim sucessivamente), temos a segunda geração (2.0), em que as redes sociais
passam a ser abordadas e vistas como parte integrante do ambiente tecnológico.
Em 2004, durante uma sessão de braimstorming na Web 2.0 Conference, Tim
O´Reilly apresentou um conceito que revolucionaria a internet. Apresentou a Web 2.0 como
a mudança da internet como plataforma e descreveu suas regras de sucesso, entre as quais
se destaca como a mais importante o desenvolvimento de aplicativos que aproveitem os
efeitos das redes com base na inteligência coletiva para se tornarem melhores do que são
(O´REILLY, 2006). Pode também ser entendida como uma plataforma dinâmica, interativa,
que possibilita atualização constante de softwares, tendo como competência-chave a
arquitetura da participação, com a proposta de reorganização dos dados de múltiplas fontes
(CATARINO; CARVALHO; ZANINELLI, 2012; SOUZA; SANTOS; SILVA, 2012). A
tecnologia Web 2.0 está diretamente relacionada ao princípio e à evolução das redes sociais,
objeto deste estudo.
Redes como Orkut, Facebook, Twitter, blogs, entre outros que se utilizam da
interatividade como instrumento principal, emergem. As redes sociais podem ser definidas
como
[...] un conjunto bien delimitado de actores-individuos, grupos,
organizaciones, comunidades, sociedades globales, etc., vinculados unos a
otros a través de una relación o un conjunto de relaciones sociales. [...] El
rasgo mas característico de las redes sociales consiste en que requieren
conceptos, definiciones y procesos en que las unidades sociales aparecen
vinculadas unas a otras a través de diversas relaciones (S. Wasserman y K.
Faust, 1994:6) (LOZARES, 1996, p. 108).
Dois elementos são essenciais para uma rede social: os atores (pessoas, instituições
ou grupos; os nós da rede) e suas conexões (interações ou laços sociais). “Uma rede, assim,
é uma metáfora para observar os padrões de conexão de um grupo social, a partir das
3416
conexões estabelecidas entre os diversos atores” (RECUERO, 2009, p. 24). O foco está na
estrutura social, sendo importante salientar que não há um isolamento entre os atores e suas
conexões. Ou seja, o princípio é a interatividade, a inter-relação que se estabelece com as
plataformas digitais.
Vistas como “metáforas estruturais”, as redes são constituídas em forma de
agrupamentos sociais, possuindo topologias, estruturas. “Essas topologias são relacionadas
às estruturas das redes sociais, ou seja, à estrutura construída através dos laços sociais
estabelecidos pelos atores” (RECUERO, 2009, p. 56).
As redes sociais são dinâmicas e estão em constante transformação, influenciadas
pelas interações estabelecidas entre os atores e suas conexões. De acordo com Kaufman
(2010, p. 51), as principais funções de uma rede social são: “1) Conectar os indivíduos todo
o tempo e em todo lugar; 2) Disponibilizar conteúdo multiplataforma; 3) Compartilhar
informações, decisões, conteúdos, etc. 4) Customizar tudo que o usuário quiser”.
Dados recentes do Centro de Estudos sobre as Tecnologias da Informação e da
Comunicação (CETIC), TIC Domicílios e Usuários 201393, divulgada em 26 de junho de
2014, mostram como as redes sociais são utilizadas no país. Com 85,9 milhões de usuários
com acesso à internet, a maioria deles, 77%, utiliza redes sociais, como o Facebook, o
Orkut ou o Google + , como a principal atividade na internet. Portanto, o uso de redes
sociais é imperativo na internet, pelo menos é o que mostram as pesquisas nacionais,
liderando e deixando para trás atividades como jogos, música e comércio eletrônico.
A comunicação em rede tem sido explorada como instrumento de ativação
de movimentos sociais e culturais como a luta dos direitos humanos,
feministas, ambientalistas, etc. [...] Através dessa complexidade de
funções, percebe-se que as redes sociais virtuais são canais de grande
fluxo na circulação de informação, vínculos, valores e discursos sociais,
que vêm ampliando, delimitando e mesclando territórios. Entre
desconfiados e entusiásticos, o fato é que as redes sociais virtuais são
convites para se repensar as relações em tempos pós-modernos
(AFONSO, 2009, p. 29).
Inserida no ambiente universitário, a função da biblioteca é promover o acesso à
informação por meio da estrutura física e de acervo impresso e virtual e da disponibilização
de serviços que acompanhem as tendências tecnológicas, contribuindo diretamente com as
atividades de ensino, pesquisa, extensão e inovação. Uma rede social é um canal de
comunicação que possibilita à biblioteca universitária disponibilizar informação
independente do lugar em que seu usuário esteja (SANTOS et al., 2012).
93
Disponível em: http://cetic.br/usuarios/tic/2013/C5.html.
3417
Buscando acompanhar as evoluções das TIC e, consequentemente, do perfil dos
usuários – público jovem, conectado à internet 24 horas por dia –, os gestores das
bibliotecas têm percebido a necessidade de adaptar os produtos e serviços oferecidos,
propondo novas atividades a seus usuários.
Este trabalho propõe-se a identificar, por meio da revisão de literatura, como as
bibliotecas universitárias brasileiras têm utilizado as redes sociais, bem como os
fundamentos e princípios que norteiam esse tema, colaborando para que outras bibliotecas
possam usar essas ferramentas de modo consciente, satisfazendo as demandas
informacionais e comunicacionais de seus usuários.
2 METODOLOGIA
A revisão de literatura deste trabalho ocorreu por intermédio de pesquisa
bibliográfica nos anais eletrônicos do XVII Seminário Nacional de Bibliotecas
Universitárias (SNBU) 94.
O SNBU é um fórum de discussão e debate nacional entre profissionais da
informação a respeito de questões referentes à Biblioteconomia, subárea da Ciência da
Informação95, com ênfase nas bibliotecas, criado em 1978, cujas edições acontecem a cada
dois anos96.
Ao pesquisar no mecanismo de busca dos anais eletrônicos do evento 97 com o
descritor redes sociais, objeto deste estudo, foi possível identificar sete trabalhos 98 a
respeito do tema em questão. Como categoria de análise foram definidos: embasamento
téorico (temática/autores mais citados), definição de redes sociais e suas funções, tipos de
94
95
96
97
98
Realizado de 16 a 21 de setembro de 2012, em Gramado, RS, com o tema: “A biblioteca
universitária como laboratório na Sociedade da Informação. Esse evento foi dividido em 4
eixos temáticos: I. Construção e comunicação da informação; II. Organização, preservação e
acesso à informação; III. Recuperação, disseminação e uso da informação; IV. Gestão de
biblioteca universitária, sendo o subtema Divulgação de produtos e serviços (páginas, blogues
e redes sociais), objeto de estudo, subordinado ao Eixo III.
Cf. Tabela de áreas do conhecimento do Conselho Nacional de Desenvolvimento Científico e
Tecnológico
(CNPq)
disponível
em
http://www.cnpq.br/documents/10157/186158/TabeladeAreasdoConhecimento.pdf.
Anos pares. Neste ano, o XVIII SNBU, com o tema: “Bibliotecas Universitárias e o acesso
público à informação: articulando leis, tecnologias, práticas e gestão”, acontecerá em Belo
Horizonte, de 16 a 21 de novembro.
Anais disponíveis em: http://portal.febab.org.br/anais/issue/view/4.
Bezerra et al. (2012), Catarino, Carvalho e Zaninelli (2012), Nascimento et al. (2012), Santos
et al. (2012), Shirayama e Marquiori (2012), Souza; Santos e Silva (2012) e, Teixeira e Souza
(2012).
3418
redes mais utilizadas pelas bibliotecas, a forma como estão sendo utilizados esses recursos e
o perfil do profissional da informação nessa era da informação.
3 RESULTADOS
Nesta seção serão apresentados os autores mais citados por cada pesquisador como
referencial teórico para embasar sua pesquisa, com a respectiva temática central; a definição
de redes e suas características; os tipos de redes sociais utilizados pelas bibliotecas; a
importância do uso dessas plataformas nas bibliotecas universitárias brasileiras; e a
competência da informação do bibliotecário nesse novo cenário tecnológico.
O QUADRO 1 apresenta o objetivo de cada trabalho analisado e a temática que
embasa cada estudo com os respectivos autores que discorrem sobre o tema.
Dentre os conceitos apresentados no material analisado, foram identificados: Redes
sociais (6); Redes (4); Redes sociais em bibliotecas (3); Fontes de informação e Web 2.0
(2); Inteligência competitiva; Estratégia organizacional; TIC/WEB (evolução); Biblioteca
2.0; Ciência da Informação; Perfil profissional; Clipping; Rede do conhecimento; Perfil
profissional; Biblioteca universitária (1) (QUADRO 1).
3419
QUADRO 1 – Apresentação dos trabalhos analisados
TRABALHO
1) Bezerra et al. (2012)
2) Nascimento et al.
(2012)
3) Catarino, Carvalho e
Zaninelli (2012)
OBJETIVO
abordar o tema das redes sociais
como fonte de informação, redes
essas que têm como finalidade
melhorias na prestação de serviços
destinados aos usuários reais e
potenciais
mostrar como as redes sociais podem
contribuir para a geração de
inteligência competitiva nas
organizações
publicar orientações para a
manutenção de conteúdos das Redes
Sociais
TEMÁTICA
Redes
Redes sociais
Gonçalves (2008) e, Silva e Bacalgini (2009)
Inteligência competitiva
Fontes de informação
Estratégia organizacional
Redes sociais
TIC/WEB (evolução)
Web 2.0
Chiavenato e Sapiro (2003)
Balestrin (2011)
Molina e Aguilar (2004)
Martinho (2003) e, Alcará et al. (2006)
Ramos (1996) e, Watanabe, Paletta e Yamashita (2010)
O’Reilly (2005)
Maness (2007), Conti e Pinto (2010) e, Gonçalves,
Conceição e Luchetti (2010)
Castells (2009)
Tomaél; Marteleto (2006), Giustini e Wright (2009),
Recuero (2009), Aguiar e Silva (2010), Brito (2010),
Campos (2012) e, Wikipédia (2012)
Gomes, Prudêncio e Santos (2010) e, Pena; Piñol (2010)
Bush (1995) apud Saracevi (1996)
Blattmann e Silva (2007)
Rodrigues (2009)
Ferreira (1986), Pftzenreuter (2010)e, ABEMO (2012)
Barros (2007), Eiras (2007) e, Recuero apud Aguiar e
Silva (2010)
Biblioteca 2.0
Redes
Redes sociais
4) Souza, Santos e Silva
(2012)
descrever a evolução de uma
atividade de disseminação da
informação – o clipping,
desenvolvida pela biblioteca
universitária CTC/F da UERJ, desde
o seu estágio impresso até a
utilização das ferramentas Blogger e
Facebook, disponíveis na web
AUTORES
Castells (1999), Watts (2004) apud Rodrigues e Tomaél
(2008) e, Tomaél (2008)
Redes sociais em bibliotecas
Ciência da Informação
Web 2.0
Perfil profissional
Clipping
Redes sociais
Redes sociais em bibliotecas
Maness apud Aguiar e Silva (2010)
3420
5) Shirayama e
Marquiori (2012)
propor um estudo para implantação
de redes sociais que veiculem
informações e estabeleçam um canal
efetivo de comunicação com o
usuário, criando vínculos e
divulgando os serviços oferecidos
pela biblioteca
Redes sociais em bibliotecas
Redes
6) Teixeira e Souza
(2012)
7) Santos et al. (2012)
Fonte: As autoras.
estudar as redes de conhecimento e
os espaços de interação entre os
diversos segmentos da sociedade no
âmbito das ciências e seu
relacionamento com as fontes de
informação no compartilhamento do
conhecimento
relatar a experiência de uma
biblioteca universitária com redes,
abordando habilidades
desenvolvidas, diretrizes de
comunicação e política de
governança como estratégia para a
edição descentralizada dos
conteúdos. Apresentar o
desenvolvimento do Twitter, do
Facebook, do YouTube, do Flickr, do
Blog e seu processo de revisão
Redes sociais
Fontes de informação
Rede do conhecimento
Perfil profissional
Biblioteca universitária
Redes
Redes sociais
Aguiar e Silva (2010)
Alba (1982), Castells (1999), Minarelli (2001), Latour
(2007), e Schmitt (2011)
Marteleto (2001), Fontes e Eichner (2004), Freeman
(2004), Velázquez e Aguilar (2005), Lozares (2007) e,
Meira (2009)
Martin Veja (1995), Jyang Yl (2000), Bernardo, Nobre e
Jatene (2004) e, Silva e Castro (2008)
Tomaél (2008) e, Johnson (2011)
Delors (2003)
Cunha (2010)
Marteleto (2001) e, Tomaél (2005)
Recuero (2005, 2007), Tripathi e Kumar (2007),
Margaix-Arnal (2008), Viberti (2009), Dickson e Holley
(2010) e, Dourado (2010)
3421
Com base no QUADRO 2 é possível identificar os autores que discutem cada conceito
relacionado ao objeto deste estudo.
QUADRO 2 – Referencial téorico (autor) por conceito
CONCEITOS
Redes sociais
Redes
Redes sociais em
bibliotecas
Fontes de informação
Web 2.0
Inteligência competitiva
Estratégia organizacional
TIC/WEB (evolução)
Biblioteca 2.0
Ciência da Informação
Perfil profissional
Clipping
Rede do conhecimento
Perfil profissional
Biblioteca universitária
AUTORES
Marteleto (2001), Martinho (2003), Fontes e Eichner (2004), Freeman
(2004), Recuero (2005, 2007, 2009), Velázquez e Aguilar (2005),
Alcará et al. (2006), Tomaél e Marteleto (2006), Barros (2007), Eiras
(2007), Lozares (2007), Tripathi e Kumar (2007), Gonçalves (2008),
Margaix-Arnal (2008), Giustini e Wright (2009), Meira (2009), Silva e
Bacalgini (2009), Viberti (2009), Aguiar e Silva (2010), Brito (2010),
Dickson e Holley (2010), Dourado (2010), Recuero apud Aguiar e
Silva (2010), Campos (2012) e, Wikipédia (2012)
Alba (1982), Castells (1999, 2009), Marteleto (2001), Minarelli (2001),
Watts (2004) apud Rodrigues e Tomaél (2008), Tomaél (2005, 2008),
Latour (2007), e, Schmitt (2011)
Aguiar e Silva (2010), Gomes, Prudêncio e Santos (2010), Maness
apud Aguiar e Silva (2010), Pena; Piñol (2010)
Martin Veja (1995), Jyang Yl (2000), Bernardo, Nobre e Jatene (2004),
Silva e Castro (2008) e, Balestrin (2011)
O’Reilly (2005) e, Blattmann e Silva (2007)
Chiavenato e Sapiro (2003)
Molina e Aguilar (2004)
Ramos (1996) e, Watanabe, Paletta e Yamashita (2010)
Maness (2007), Conti e Pinto (2010) e, Gonçalves, Conceição e
Luchetti (2010)
Bush (1995) apud Saracevi (1996)
Rodrigues (2009)
Ferreira (1986), Pftzenreuter (2010) e, ABEMO (2012)
Johnson (2011) e Tomaél (2008)
Delors (2003
Cunha (2010)
Fonte: As autoras.
Os autores mais citados para a temática Redes Sociais foram Recuero, Wikipedia,
Aguiar e Silva, e Dickson e Holley; para Redes, Castells e Tomaél; e para Redes sociais em
bibliotecas, Aguiar e Silva (2010). Os autores das demais temáticas não foram destacados,
considerando que não foi identificada mais de uma citação do mesmo autor para elas.
As redes sociais são plataformas que facilitam a conectividade (SOUZA; SANTOS;
SILVA, 2012), a interatividade e o compartilhamento de informação, conhecimento e
experiências em torno de interesses comuns (SOUZA; SANTOS; SILVA, 2012; TEIXEIRA;
SOUZA, 2012) com abrangência praticamente ilimitada (CATARINO; CARVALHO;
ZANINELLI, 2012).
3422
Para Nascimento et al. (2012), esses recursos são ferramentas de competitividade que
fortalecem a cultura informacional. Os autores destacam sua importância por ser um novo
espaço de relacionamento entre pessoas (cliente x organização) que permite a recuperação e a
disseminação de informações variadas (de entretenimento, científicas, laborais etc.).
Os ambientes virtuais possibilitam o trabalho cooperativo, o rápido acesso às
informações (SOUZA; SANTOS; SILVA, 2012), o apoio social e a ascensão na carreira
(TEIXEIRA; SOUZA, 2012).
Para Bezerra et al. (2012), Catarino, Carvalho e Zaninelli (2012), e Teixeira e Souza
(2012), a colaboração mútua dos indivíduos que compõem determinada rede favorece a
produção do conhecimento tácito – crescimento individual –, que com as parcerias
(compartilhamento) reduz a incerteza e promove benefícios recíprocos por intermédio da
construção do conhecimento coletivo, que conduz a um crescimento mútuo.
Catarino, Carvalho e Zaninelli (2012), Santos et al. (2012) e Souza, Santos e Silva
(2012) compartilham suas experiências quanto à criação, ao uso, à manutenção e ao
gerenciamento das seguintes redes sociais em suas bibliotecas: Facebook (mensagens, links,
vídeos, fotos etc.), Twitter (notícias curtas e rápidas), Flickr (álbuns de fotos), Youtube
(vídeos), Delicious (sites favoritos), Slideshare (apresentações de slides, e-books etc.) e Blog
(registro cronológico de informações).
Para Santos et al. (2012) e Souza, Santos e Silva (2012), dentre todas as ferramentas
acima citadas, o blog é a que oferece maior facilidade de criação e administração, por possuir
uma interface amigável, popular e dinâmica que permite a produção de conteúdo de maneira
simples, sem exigir conhecimento técnico aprofundado para seu gerenciamento.
Souza, Santos e Silva (2012) apresentam também sua experiência de clipping digital
baseado no webjornalismo, que com a explosão bibliográfica passou a ser uma atividade
essencial. Esse recurso funciona como disseminação seletiva da informação (DSI) 99, oferecido
por muitas bibliotecas com o nome de Rich Site Sumary (RSS), que permite maior visibilidade
da informação e colabora na formação de opinião dos usuários.
Para que uma biblioteca exista, é essencial que haja usuários com demandas
informacionais para o desenvolvimento de suas atividades. O mesmo acontece nas redes
sociais, que dependem de pessoas interconectadas para o seu funcionamento. Bezerra et al.
99
Serviço personalizado, também conhecido como serviço de alerta, que informa e atualiza o
usuário quando um novo documento de seu interesse fica disponível no sistema, ou seja, que
permite ao pesquisador o monitoramento dos temas que estão sendo publicados em sua área de
interesse.
3423
(2012), Catarino, Carvalho e Zaninelli (2012), e Souza, Santos e Silva (2012) destacam que o
objetivo principal das redes sociais em bibliotecas é a satisfação dos usuários reais e
potenciais.
As mídias sociais possibilitam à biblioteca traçar um perfil de interesse,
comportamentos e tendências (SOUZA; SANTOS; SILVA, 2012); identificar novas
demandas (BEZERRA et al., 2012; NASCIMENTO et al. 2012; SOUZA; SANTOS; SILVA,
2012); mapear o comportamento do usuário (horário de acesso, o que acessa, posts curtidos),
permitindo reforçar os conteúdos de maior interesse (SANTOS et al., 2012), ou seja, é uma
excelente ferramenta para a realização de estudo de usuários (SHIRAYAMA; MARQUIORI,
2012).
O conceito de Biblioteca 2.0 é apresentado por Catarino, Carvalho e Zaninelli (2012)
como aquela que utiliza os recursos colaborativos da Web 2.0, em que o usuário se torna
agente ativo no processo de criação e troca de informação, reforçando que na Web 2.0 a
ênfase deve ser dada aos usuários e não às tecnologias. Nesse ambiente colaborativo os
usuários também participam do processo de construção do conteúdo, ou seja, produzem,
consomem e compartilham informações e conhecimentos (SANTOS et al., 2012). É uma
oportunidade que aproxima a biblioteca de seus usuários, que possibilita que o profissional da
informação vá ao encontro da comunidade acadêmica (CATARINO; CARVALHO;
ZANINELLI, 2012; SANTOS, 2012), estabelecendo um contato direto e criando laços
(relacionamento) de maneira interativa com aquele que necessita da informação (BEZERRA
et al., 2012; SOUZA; SANTOS; SILVA, 2012; SHIRAYAMA; MARQUIORI, 2012). Enfim,
é uma ferramenta aliada na gestão da informação, mediante a disponibilização dos diversos
perfis de usuários da biblioteca (SOUZA; SANTOS; SILVA, 2012).
Nas plataformas digitais é possível à biblioteca disponibilizar material informacional
nos mais diversos formatos: textos (palestras, manuais de serviço, trabalhos apresentados em
eventos, artigos, arquivos escaneados, mensagens100 etc.) (SHIRAYAMA; MARQUIORI,
2012; SANTOS et al., 2012; SOUZA; SANTOS; SILVA, 2012); vídeos (institucionais,
formação e capacitação de usuário etc.); áudios (podcast101, músicas, palestras e entrevistas
gravadas etc.) (SANTOS et al., 2012; SOUZA; SANTOS; SILVA, 2012; SHIRAYAMA;
MARQUIORI, 2012) e imagens (fotos) (CATARINO; CARVALHO; ZANINELLI, 2012),
cuja função varia de atividades de entretenimento às científicas, tornando-se um espaço para
100
101
Posts e comentários.
Arquivos de áudio transmitidos pela internet.
3424
registro e resgate da memória e da identidade cultural da unidade informacional e da
instituição.
No material analisado foi possível identificar uma série de produtos e serviços
que as bibliotecas universitárias podem disponibilizar para seus usuários nas redes sociais, a
destacar: a) notícias de interesse da comunidade acadêmica sobre a biblioteca
(funcionamento, novas aquisições etc.) e a instituição (CATARINO; CARVALHO;
ZANINELLI, 2012; SANTOS et al., 2012; SHIRAYAMA; MARQUIORI, 2012; SOUZA;
SANTOS; SILVA, 2012); b) informações de cunho administrativo (missão, histórico, dados
estatísticos etc.) (CATARINO; CARVALHO; ZANINELLI, 2012; SHIRAYAMA;
MARQUIORI, 2012); c) oportunidades e estágios (SOUZA; SANTOS; SILVA, 2012); d)
eventos (exposições, palestras, treinamentos102, cursos, congressos) promovidos pela
biblioteca e pela instituição e indicações de leituras especializadas (CATARINO;
CARVALHO; ZANINELLI, 2012; SANTOS et al., 2012; SHIRAYAMA; MARQUIORI,
2012); e) fontes de pesquisa (bibliotecas digitais, bases de dados e periódicos eletrônicos,
repositórios institucionais, portais de pesquisa, catálogos eletrônicos de outras bibliotecas
etc.), trabalhos relacionados às bibliotecas universitárias e/ou à área da Ciência da
Informação) (SANTOS et al., 2012; SHIRAYAMA; MARQUIORI, 2012); e f) outras redes
sociais da biblioteca. Como exemplo, Souza, Santos e Silva (2012) citam o Centro de
Tecnologia e Ciência (CTC/F) da Universidade do Estado do Rio de Janeiro (UERJ), que
identificou aumento significativo no acesso ao seu blog após divulgação no Facebook da
instituição.
As redes sociais de bibliotecas são ferramentas de informação e interação (BEZERRA
et al., 2012; SANTOS et al., 2012; SOUZA; SANTOS; SILVA, 2012) que intensificam o
processo de comunicação entre bibliotecários e usuários (CATARINO; CARVALHO;
ZANINELLI, 2012; SANTOS et al., 2012; SHIRAYAMA; MARQUIORI, 2012) de forma
síncrona (mensagens instantâneas) e assíncrona (wiki e blog) (SOUZA; SANTOS; SILVA,
2012). Dentre suas diversas vantagens foram identificadas no material analisado: a) redução
de distâncias, uma vez que possibilita acesso instantâneo à informação a qualquer hora e lugar
(SHIRAYAMA; MARQUIORI, 2012; SOUZA; SANTOS; SILVA, 2012); b) democratização
do uso da informação (SOUZA; SANTOS; SILVA, 2012); c) promoção de novos produtos e
serviços pelo marketing (BEZERRA et al., 2012; SANTOS et al., 2012); d) baixo custo de
102
Disponibilização de tutoriais com procedimentos e funções da biblioteca, preferencialmente
utilizando uma ferramenta interativa (web 2.0), como o Prezi, por exemplo.
3425
investimento; e) alcance de um grande número de usuários em um curto espaço de tempo; f)
enriquecimento do processo dos serviços de alerta (DSI) (SOUZA; SANTOS; SILVA, 2012);
g) acesso e apropriação da informação (CATARINO; CARVALHO; ZANINELLI, 2012); h)
ampliação de espaços dinâmicos e abertos para debate e discussão (CATARINO;
CARVALHO; ZANINELLI, 2012; SANTOS et al., 2012; SOUZA; SANTOS; SILVA,
2012); e i) promoção da instituição e da biblioteca, possibilitando maior visibilidade
(BEZERRA et al., 2012; SHIRAYAMA; MARQUIORI, 2012; SOUZA; SANTOS; SILVA,
2012).
Souza, Santos e Silva (2012) e Teixeira e Souza (2012) afirmam que uma rede social
utilizada como recurso pedagógico é um ambiente mais atrativo e estimulante que a sala de
aula, pois possibilita a discussão no interior da comunidade acadêmica a respeito dos mais
diversos temas, por intermédio da criação de grupos de pesquisa, de projetos, de estudos de
alunos de uma disciplina, profissionais, entre outros, com objetivo de construir, disseminar e
compartilhar conhecimentos.
Catarino, Carvalho e Zaninelli (2012) e Santos et al. (2012) discorrem sobre a
importância de padronizar a comunicação on-line dos conteúdos por meio da elaboração
coletiva de políticas de governança, bem como de divulgar as regras de uso, a saber: respeito
aos direitos de propriedade intelectual, questões éticas, comunicação responsável e divulgação
de notícias verídicas. Essas diretrizes permitem a coerência das ações de manutenção dos
canais de comunicação da biblioteca pela equipe designada para esse fim, visando conquistar
a credibilidade e a confiança do usuário por meio da divulgação de informações relevantes e
atualizadas, de modo interativo, dando oportunidade ao usuário de se sentir como parte
integrante da instituição e/ou unidade informacional.
As transformações advindas dos avanços tecnológicos hoje disponíveis, sobretudo no
ambiente universitário, que impactaram no pensar e agir das bibliotecas provocam uma
reflexão a respeito das competências informacionais do bibliotecário. Nesse contexto, são
requeridas novas competências do perfil do bibliotecário. Essas características essenciais
foram identificadas no material analisado, a saber: a) estar atento às novas demandas
informacionais de seus usuários (SANTOS et al., 2012; SHIRAYAMA; MARQUIORI,
2012); b) promover o atendimento ao usuário de maneira rápida e efetiva, e estimular sua
autonomia (SHIRAYAMA; MARQUIORI, 2012, TEIXEIRA; SOUZA, 2012); c) conhecer
tendências tecnológicas e acompanhar mudanças (CATARINO; CARVALHO; ZANINELLI,
2012); d) adequar os serviços ao mundo virtual, principalmente no que se refere à
disseminação da informação; e) ser constantemente curioso para buscar e testar novas
3426
tecnologias, visando facilitar o acesso à informação, extrair seus benefícios e ampliar o seu
uso (CATARINO; CARVALHO; ZANINELLI, 2012; SOUZA; SANTOS; SILVA, 2012;
TEIXEIRA; SOUZA, 2012); f) conhecer e utilizar os recursos da Web 2.0, a fim de fornecer
respostas mais específicas às demandas informacionais dos usuários; g) estar preparado para
atuar tanto em ambientes físicos quanto em ambientes virtuais (SOUZA; SANTOS; SILVA,
2012); e h) estimular o rigor intelectual (TEIXEIRA; SOUZA, 2012), ou seja, participar de
projetos de capacitação continuada (leituras, participação em eventos, cursos, apresentação de
trabalhos etc.) referentes às redes sociais, isto é, preparar-se para dialogar com a nova geração
do conhecimento, da informação e da tecnologia – os usuários reais das bibliotecas
universitárias de hoje. Para Souza, Santos e Silva (2012), prazer e curiosidade são os grandes
aliados dos bibliotecários nesta nova era tecnológica informacional.
4 CONSIDERAÇÕES PARCIAIS
A biblioteca universitária é um espaço muito dinâmico, em constante adequação dos
serviços e das formas de comunicação com seus usuários, e tem entre seus grandes desafios
acompanhar o desenvolvimento tecnológico. Entretanto, ainda é pequeno o número de
bibliotecas que utiliza as tecnologias e disponibiliza em seus sites links de suas redes sociais
(CATARINO; CARVALHO; ZANINELLI, 2012; SOUZA, SANTOS; SILVA, 2012).
O site de uma biblioteca é um canal de comunicação direta com a comunidade
acadêmica que permite maior visibilidade desta, bem como a prestação de serviços, além de
receber elogios, sugestões, críticas, comentários, questionamentos e dúvidas dos usuários.
Catarino, Carvalho e Zaninelli (2012) alertam quanto à importância de que as redes sociais
sejam divulgadas na página da biblioteca como uma forma de promover e medir a qualidade
dos serviços prestados (NASCIMENTO et al., 2012) e complementam que, mesmo que a
instituição na qual a biblioteca esteja inserida disponibilize redes sociais, é essencial que a
unidade informacional tenha seu próprio espaço de interação com a comunidade acadêmica,
mais específico, ou seja, menos generalista.
Por serem um recurso dinâmico, é fundamental que as redes sociais da biblioteca
sejam constantemente atualizadas. “O trabalho de atualização nas redes sociais exige
manutenção, cuidado, profissionalismo e continuidade” (SANTOS et al., 2012, p. 5). Souza,
Santos e Silva (2012) destacam ainda a importância da constante avaliação do uso dessas
ferramentas, de modo que elas sejam usuais e constantes.
Nos trabalhos analisados foram identificados dois produtos que podem ser úteis para
os bibliotecários que pretendem implantar e gerenciar as redes sociais de suas unidades
3427
informacionais: A política para manutenção de conteúdos nas redes sociais e no portal do
Sistema de Bibliotecas da UEL (CATARINO; CARVALHO; ZANINELLI, 2012) e Política
de governança da Biblioteca Central da Faculdade de Medicina da USP (SANTOS et al.,
2012, p. 5)103.
Para Teixeira e Souza (2012), a biblioteca está perdendo a sua supremacia
enquanto principal fonte de busca em razão do impacto da tecnologia digital. Para conhecer as
tendências tecnológicas e acompanhar as mudanças, os bibliotecários precisam buscar
informações relevantes por meio de atualização constante. Para Campello (2003), a biblioteca
amplia seu papel de atuação na universidade por meio da competência informacional dos
profissionais da informação.
Souza, Santos e Silva (2012, p. 10) sinalizam como desafio aos bibliotecários a
necessidade de conhecer e utilizar a Web 2.0 a fim de aplicar os conceitos inteligentes na
“organização dos conteúdos, combinação dos dados com o propósito de dar respostas mais
definidas às questões de pesquisas” por meio da Web semântica. Essas habilidades específicas
ligadas ao uso da informação eletrônica tornam o profissional indispensável para a instituição
nas atividades de gestão dos serviços informacionais.
Espera-se que este trabalho possa contribuir com as discussões sobre o uso das redes
sociais pelas bibliotecas universitárias e fornecer subsídios para a capacitação dos
profissionais da informação, de modo a que possam atender às demandas dessa nova
configuração de mundo interligado pelo ambiente virtual.
REFERÊNCIAS
AFONSO, Alexandre Soares.
n lise d tili
o d s redes soci is e
bientes
corporativos. 2009. 163f. Dissertação (Mestrado em Tecnologias da Inteligência e Design
Digital) – Pontifícia Universidade Católica, São Paulo, 2009.
BEZERRA, Midinai Gomes et al. Redes sociais como fonte de informação: uma proposta
atual. In: SEMINÁRIO NACIONAL DE BIBLIOTECAS UNIVERSITÁRIAS, 17., 2012,
Gramado. Anais... Porto Alegre: UFRGS, 2012. 4QAR. Disponível em:
<http://www.snbu2012.com.br/anais/pdf/4QAR.pdf>. Acesso em: 1 jul. 2014.
CAMPELLO, Bernadete. O movimento da competência informacional: uma perspectiva para
o letramento informacional. Ciência da Informação, Brasília, DF, v. 32, n. 3, 2003.
CASTELLS, Manuel. A Sociedade em rede: do conhecimento à política. In: CASTELLS,
Manuel; CARDOSO, Gustavo (Org.). A sociedade em rede: do conhecimento à ação
política. [Belém]: Imprensa Nacional, Casa da Moeda, 2005. p. 17-30.
103
Em 2009 foi instituído o Grupo de Inovação para a aplicação das ferramentas Web 2.0.
3428
CATARINO, Maria Elisabete; CARVALHO, Márcia Marques da Silva; ZANINELLI, Neide
Maria Jardinette. Política para a manutenção de conteúdos nas redes sociais e no portal do
sistema de bibliotecas da UEL. In: SEMINÁRIO NACIONAL DE BIBLIOTECAS
UNIVERSITÁRIAS, 17., 2012, Gramado. Anais... Porto Alegre: UFRGS, 2012. 4QXW.
Disponível em: <http://www.snbu2012.com.br/anais/pdf/4QXW.pdf>. Acesso em: 5 jul.
2014.
KAUFMAN, Dora. processo de to d de decis o no ciberesp o: o papel das redes
sociais no jogo das escolhas individuais. 2010. 139 f. Dissertação (Mestrado em Comunicação
e Semiótica, Signo e Significação nas Mídias) – Pontifícia Universidade Católica, São Paulo,
2010.
LÉVY, Pierre. A máquina universo. Porto Alegre: ArtMed, 1998.
LOZARES, Carlos. La teoría de las redes sociales. Papers, [s.n.], v. 48, p. 103-126, 1996.
NASCIMENTO, Bruna Laís Campos do et al. Processo de geração de inteligência
competitiva: como as redes sociais podem contribuir? In: SEMINÁRIO NACIONAL DE
BIBLIOTECAS UNIVERSITÁRIAS, 17., 2012, Gramado. Anais... Porto Alegre: UFRGS,
2012. 4QWF. Disponível em: <http://www.snbu2012.com.br/anais/pdf/4QWF.pdf>. Acesso
em: 3 jul. 2014.
O´REILLY, Tim. Introduction. In: O´REILLY MEDIA INC. Web 2.0: Principles and Best
Practices. [S.l], Fall 2006.
RECUERO, Raquel. Redes sociais na internet. Porto Alegre: Sulina, 2009. (Coleção
Cibercultura).
SANTOS, Cibele Araujo Camargo Marques dos et al. As redes sociais como ferramenta de
marketing e comunicação com o usuário. In: SEMINÁRIO NACIONAL DE BIBLIOTECAS
UNIVERSITÁRIAS, 17., 2012, Gramado. Anais... Porto Alegre: UFRGS, 2012. 4QVW.
Disponível em: <http://www.snbu2012.com.br/anais/pdf/4QVW.pdf>. Acesso em: 13 jul.
2014.
SHIRAYAMA, Cristiane de Melo; MARQUIORI, Mariana. Proposta de implantação de redes
sociais na biblioteca da escola de Filosofia, Letras e Ciências Humanas da Universidade
Federal de São Paulo. In: SEMINÁRIO NACIONAL DE BIBLIOTECAS
UNIVERSITÁRIAS, 17., 2012, Gramado. Anais... Porto Alegre: UFRGS, 2012. 4REX.
Disponível em: <http://www.snbu2012.com.br/anais/busca/>. Acesso em: 9 jul. 2014.
SOUZA, Ester Aparecida Lima de; SANTOS, Marcos Antonio Vianna dos; SILVA, Zelia
Maria Pereira da. O uso das ferramentas da Web 2.0 na disseminação da informação: do
clipping às redes sociais. In: SEMINÁRIO NACIONAL DE BIBLIOTECAS
UNIVERSITÁRIAS, 17., 2012, Gramado. Anais... Porto Alegre: UFRGS, 2012. 4QXZ.
Disponível em: <http://www.snbu2012.com.br/anais/pdf/4QXZ.pdf>. Acesso em: 7 jul. 2014.
TEIXEIRA, Maria do Rocio Fontoura; SOUZA, Diogo Onofre Gomes de. Fontes de
informação em Ciências: um estudo de uso a partir da metodologia de Análise de Redes
Sociais. In: SEMINÁRIO NACIONAL DE BIBLIOTECAS UNIVERSITÁRIAS, 17., 2012,
Gramado. Anais... Porto Alegre: UFRGS, 2012. 4RFV. Disponível em:
<http://www.snbu2012.com.br/anais/pdf/4RFV.pdf>. Acesso em: 11 jul. 2014.
3429
METADADOS ARQUIVÍSTICOS: CONSIDERAÇÕES SOBRE CONCEITOS, TIPOS
E INSTRUMENTOS104
ARCHIVAL METADATA: CONSIDERATIONS ABOUT CONCEPTS, TYPES AND
INSTRUMENTS
Rachel Cristina Vesu Alves
Plácida Leopoldina Ventura Amorim da Costa Santos
Resumo: Os metadados são elementos fundamentais a serem determinados no domínio
arquivístico para garantir a identificação, representação, acesso e preservação dos
documentos. Deste modo, o problema que norteou este trabalho consiste em: como
estabelecer os metadados arquivísticos? A hipótese é de que os metadados arquivísticos são
estabelecidos com base nas teorias, nos princípios e nas metodologias arquivísticas para o
tratamento documental, em especial, nas entidades do domínio arquivísticos identificadas nos
modelos conceituais do domínio e nos processos de gestão arquivística de documentos. O
objetivo consiste em abordar os principais aspectos sobre os metadados arquivísticos: seu
conceito no domínio, seus principais tipos e os instrumentos para seu estabelecimento
padronizado. A metodologia utilizada na pesquisa consistiu em uma combinação da
abordagem exploratória e descritiva com pesquisa bibliográfica realizada com a literatura
disponível sobre o tema. Como resultados destaca-se o mapeamento dos principais tipos de
metadados arquivísticos analisados pelo esquema de metadados da norma ISO 23081-1:2006
e pelo esquema de metadados do Modelo de Requisitos e-ARQ Brasil. Destaca-se também os
instrumentos necessários para o estabelecimento padronizado de metadados no domínio
arquivístico. Conclui-se que os metadados arquivísticos são estabelecidos com base nas
entidades, atributos e relações do domínio arquivístico.
Palavras-chave: Domínio arquivístico. Metadados arquivísticos. Tipos de metadados
arquivísticos.
Abstract: The metadata are essential elements to be determined in archival domain to ensure
identification, representation, access, and preservation of documents. Therefore, the problem
that guided this work is: how to establish archival metadata? The hypothesis is that the
archival metadata are established based on the theories, principles and archival methodologies
for documentary treatment, especially entities in the archival domain, identified in the
conceptual models of the domain and processes of records management. The goal is to
approach the main aspects on archival metadata: concept in domain, types and instruments for
your standardized establishment. The methodology used in research is combination of
exploratory and descriptive approach with bibliographic survey for analyze the literature of
subject. The results showed the mapping of main types of archival metadata analyzed by
metadata schema of standard ISO 23081-1:2006 and metadata schema of Requirements
Model e-ARQ Brasil. Also noteworthy is necessary instruments for the establishment of
standardized metadata in the archival domain. We conclude that archival metadata are
established based on the entities, attributes and relationships of the archival domain.
104
Parte dos resultados da pesquisa “Mapeamento de metadados no domínio arquivístico: aspectos
conceituais para implementação de um esquema de metadados” realizada no Programa de PósDoutorado da Universidade Estadual Paulista “Júlio de Mesquita Filho” (UNESP), Faculdade de
Filosofia e Ciências, campus de Marília, Departamento de Ciência da Informação. Pesquisa
financiada pelo CNPq.
3430
Keywords: Archival domain. Archival metadata. Types of archival metadata.
1 INTRODUÇÃO
Tornar os recursos acessíveis e disponíveis nos ambientes informacionais digitais
tornou-se um desafio para as áreas envolvidas com a representação da informação. Assim, as
áreas de Ciência da Informação, Biblioteconomia, Arquivologia e Museologia passaram a
vivenciar significativas mudanças em relação à redefinição das atividades de produção,
armazenamento, tratamento, busca, localização, acesso, recuperação e uso das informações,
com o intuito de promover um melhor acesso, busca e recuperação das informações na Web.
Neste contexto, os metadados são considerados elementos essenciais para promover a
representação, o acesso, a recuperação e a preservação dos recursos nesses ambientes.
Contudo, é impossível estabelecer uma unicidade na construção de metadados para serem
utilizados por todas as áreas que estabelecem interdisciplinaridade com a Ciência da
Informação, devido às características próprias de cada domínio 105. Tampouco, ser utilizado
metadados de esquemas amplos e gerais, pois esses não refletem a especificidade necessária
em determinados domínios.
Assim, o estabelecimento de metadados ocorre em domínios específicos que
estabelecem interdisciplinaridade com a Ciência da Informação, como por exemplo, o
domínio de bibliotecas, arquivos, museus e outras comunidades de informação que compõem
o denominado Universo Bibliográfico (IFLA, 2009). E se configura como um dos desafios
contemporâneos a ser determinado nesses domínios, pois proporcionam o acesso, a busca, a
recuperação e a preservação das informações com maior eficiência e especificidade nos
ambientes digitais.
De acordo com a IFLA (2009) o domínio arquivístico pode ser definido como o
domínio das coleções de arquivos, compondo o denominado Universo Bibliográfico. Assim, o
domínio arquivístico pode ser melhor entendido como o domínio da Arquivologia ou da
Arquivística que, por sua vez, pode ser definida como a: “Disciplina que estuda as funções do
arquivo e os princípios e técnicas a serem observados na produção, organização, guarda,
preservação e utilização dos arquivos. Também chamada arquivística” (ARQUIVO
NACIONAL, 2005, p. 37).
A Arquivística contemporânea vem passando por rupturas e mudanças de paradigmas
que, em parte, deve-se ao desenvolvimento e aplicação das Tecnologias de Informação e
105
O domínio é definido como “[...] âmbito ou os assuntos abarcados em uma ciência, área,
disciplina e comunidade do conhecimento.” (ALVES, 2010, p. 17).
3431
Comunicação – TIC – no fazer arquivístico (FONSECA, 2005; RONDINELLI, 2005). De
modo geral, essas mudanças podem ser percebidas com o surgimento de novos tipos de
documentos (os documentos digitais) e novos ambientes (sistemas informatizados) fatores
que, consequentemente, exigem uma reformulação dos processos de gestão arquivística de
documentos e dos instrumentos utilizados para o tratamento documental, visando o acesso a
longo prazo dos documentos em ambientes digitais.
Neste trabalho serão abordados alguns aspectos sobre o estabelecimento de metadados
no domínio arquivístico, que são parte dos resultados decorrente de uma pesquisa no
Programa de Pós-Doutorado da Universidade Estadual Paulista (Unesp), Júlio de Mesquita
Filho, vinculado ao Departamento de Ciência da Informação da Faculdade de Filosofia e
Ciências, campus de Marília.
Os metadados são elementos importantes para garantir a identificação, a
representação, o acesso e preservação dos documentos arquivísticos em sistemas
informatizados. Deste modo, o problema que norteou este trabalho consiste em: como
estabelecer os metadados arquivísticos? A hipótese é de que os metadados arquivísticos são
estabelecidos com base nas teorias, nos princípios e nas metodologias arquivísticas para o
tratamento documental, em especial, nas entidades do domínio arquivísticos identificadas nos
modelos conceituais do domínio e nos processos de gestão arquivística de documentos.
Sendo assim, o objetivo consiste em abordar os seguintes aspectos sobre os metadados
arquivísticos: seu conceito no domínio, seus principais tipos e os instrumentos para seu
estabelecimento padronizado. De modo mais específico, a proposta deste artigo é abordar os
metadados estabelecidos em dois instrumentos arquivísticos: a norma internacional ISO
23081-1:2006 (Information and documentation – Records management processes – Metadata
for records – Part 1: Principles) e, em âmbito nacional, os metadados do esquema definido
no Modelo de Requisitos e-ARQ Brasil. A norma ISO 23081-1:2006 contempla os tipos de
metadados necessários para a implementação de outras normas, a ISO 15489-1:2001
(Information and documentation - Records management - Part 1: General), que trata da
gestão de documentos, e; a ISO/TR 15489-2:2001 (Information and documentation - Records
management - Part 2: Guidelines), que trata das diretrizes para a gestão de documentos. Já o
Modelo de Requisitos e-ARQ Brasil, estabelecido com base em normas e orientações de
referência nacionais e internacionais, determina requisitos mínimos para os Sistemas
Informatizados de Gestão Arquivística de Documentos (SIGAD), incluindo a definição de um
esquema de metadados. Ambos os instrumentos apresentam um esquema de metadados
conceitual, que diferem entre si por serem baseados em diferentes modelos conceituais do
3432
domínio arquivístico, portanto, constituem-se como foco relevante para uma análise de suas
características.
A metodologia utilizada nesta pesquisa consistiu em uma combinação da abordagem
exploratória e descritiva com pesquisa bibliográfica realizada com a literatura disponível
sobre o tema. O levantamento bibliográfico foi realizado em fontes bibliográficas (primárias e
secundárias) da literatura científica impressa e digital, levando em consideração os seguintes
assuntos: informação e tecnologia, metadados, aspectos tecnológicos para estabelecimento de
metadados, aspectos representacionais para estabelecimento de metadados, gestão arquivística
de documentos, sistemas informatizados de gestão arquivística de documentos, diplomática,
tipologia documental, metodologia de identificação arquivística, metadados arquivísticos,
padrões de metadados em arquivologia, entre outros.
Como resultados destaca-se o mapeamento dos principais tipos de metadados
arquivísticos analisados no esquema de metadados da norma ISO 23081-1:2006 e no esquema
de metadados do Modelo de Requisitos e-ARQ Brasil. Destaca-se também outros
instrumentos necessários para o estabelecimento padronizado de metadados no domínio
arquivístico.
2 A GESTÃO ARQUIVÍSTICA DE DOCUMENTOS
De acordo com Rodrigues (2003), o conceito de gestão de documentos teve sua
origem após a Segunda Guerra Mundial com a explosão documental no âmbito das
administrações públicas e a necessidade de organização dessas massas documentais
acumuladas. Na base da gestão de documentos está a Teoria das Três Idades, que também
surgiu nesta época trazendo uma nova concepção para os arquivos. Trata-se do “[...] princípio
pelo qual os documentos passam por fases estabelecidas de acordo com sua vigência
administrativa e frequência de consulta [...]” (RODRIGUES, 2003, p. 35). A primeira idade
corresponde aos arquivos correntes, com documentos de caráter funcional e administrativo
que estão tramitando ou estão arquivados, consultados com maior frequência. A segunda
idade refere-se aos arquivos intermediários, que contempla documentos que não são mais de
uso corrente, mas que mantém algum interesse administrativo, por isso, aguardam o
cumprimento do prazo estabelecido na tabela de temporalidade para serem eliminados ou
recolhidos para um arquivo permanente. A terceira idade corresponde aos arquivos
permanentes, que guardam e preservam os documentos de modo definitivo, devido ao seu
valor histórico, probatório ou informativo (CONSELHO NACIONAL DE ARQUIVOS,
2011).
3433
O ciclo vital dos documentos arquivísticos acontece com base nessa teoria que
revolucionou a Arquivística de modo conceitual e prático, pois instaurou um modelo
sistêmico de organização de arquivos que passaram a ser tratados por preceitos arquivísticos
(a gestão de documentos) controlando os documentos desde o momento de sua produção até a
destinação final (eliminação criteriosa ou guarda permanente) (CONSELHO NACIONAL DE
ARQUIVOS, 2011; RODRIGUES, 2003).
Em meados da década de 90 do século XX, o domínio arquivístico passa a vivenciar
significativas mudanças ocasionadas pelo desenvolvimento e aplicação das TIC,
principalmente no que se refere à produção de documentos arquivísticos em ambientes
eletrônicos e digitais, e seu gerenciamento em sistemas informatizados. Para garantir que
esses documentos pudessem ser confiáveis, autênticos e preservados ao longo do tempo era
fundamental incorporar conceitos arquivísticos em seu gerenciamento. Assim, a gestão de
documentos passou a ser requerida e denominada como gestão arquivística de documentos
para ressaltar o caráter arquivístico no processo de gestão e diferenciá-la de outros tipos de
gerenciamento (CONSELHO NACIONAL DE ARQUIVOS, 2011).
De acordo com o Conselho Nacional de Arquivos (2011, p. 10) a gestão arquivística
de documentos pode ser definida como o
Conjunto de procedimentos e operações técnicas referentes à produção,
tramitação, uso, avaliação e arquivamento dos documentos em fase corrente
e intermediária, visando sua eliminação ou recolhimento para guarda
permanente.
O estabelecimento da gestão arquivística de documentos depende da definição de
alguns requisitos iniciais: a definição de uma política arquivística do órgão ou instituição; a
designação de responsabilidades para execução do programa de gestão (definição das pessoas
envolvidas na implantação da gestão arquivística de documentos: profissionais, usuários,
gestores etc); o planejamento do programa de gestão (com a análise institucional,
estabelecimento de diretrizes para a instituição e sistema, elaboração dos instrumentos e
manuais, definição do ambiente tecnológico, definição dos metadados para o ciclo de vida dos
documentos etc) e a implantação do programa de gestão (com a execução e acompanhamento
do projeto). Os processos e operações técnicas do sistema de gestão ocorrerão com base na
definição desses requisitos, que também serão determinados de acordo com as características
próprias de cada órgão ou instituição.
A gestão arquivística de documentos compreende seis processos, também
denominados como procedimentos e operações técnicas a serem realizadas pelo sistema de
gestão de documentos digitais e convencionais: captura; avaliação, temporalidade e
3434
destinação; pesquisa, localização e apresentação dos documentos; segurança; armazenamento
e preservação. A seguir abordam-se os principais aspectos de cada um desses processos:
1) CAPTURA: é a declaração e incorporação do documento no sistema de gestão arquivística
por meio das seguintes ações: registro, classificação, indexação, atribuição de restrição de
acesso e arquivamento, com o objetivo de identificar um documento como sendo arquivístico
e demonstrar sua relação orgânica. Nesse processo são incluídos metadados de vários tipos e
níveis de detalhamento, de acordo com as necessidades do órgão ou instituição;
2) AVALIAÇÃO, TEMPORALIDADE E DESTINAÇÃO: a avaliação é uma atividade de
análise dos documentos arquivísticos para o estabelecimento dos prazos de guarda e
destinação, considerando seus valores primários e secundários. Os prazos de guarda e as ações
de destinação devem ser formalizados em uma tabela de temporalidade e destinação da
instituição. A destinação dos documentos é efetivada após a seleção e ocorre por meio das
seguintes atividades: transferência (passagem dos documentos do arquivo corrente para o
intermediário, onde aguardarão o cumprimento dos prazos de guarda e destinação final);
recolhimento (entrada dos documentos nos arquivos permanentes); e eliminação (dos
documentos que não apresentam valor permanente conforme a tabela de temporalidade e
destinação). Para os documentos digitais, os procedimentos de transferência e recolhimento
exigem, entre outras questões, a indicação dos metadados atribuídos ao documento e
informações que garantam sua autenticidade;
3) PESQUISA, LOCALIZAÇÃO E APRESENTAÇÃO DOS DOCUMENTOS: são itens
de recuperação e acesso aos documentos em um sistema informatizado. A pesquisa é feita
utilizando-se instrumentos de busca como guias, inventários, catálogos, repertórios e índices;
a apresentação consiste em exibir os documentos por meio de dispositivos como monitores e
impressoras; e a recuperação é realizada por meio do registro do documento no sistema e de
seus metadados associados;
4) SEGURANÇA: refere-se às questões que garantem a integridade dos documentos como,
por exemplo, o controle de acesso aos documentos para os usuários do sistema (restrições,
autorizações e registro de uso dos documentos); as trilhas de auditoria que registram as
ocorrências de acesso, intervenções e tentativas de intervenções nos documentos; as cópias de
segurança (cópias periódicas das informações) que são realizadas para posterior restauração
3435
do sistema devido à quebra de segurança, degradação do suporte etc; a segurança sobre a
infraestrutura de instalações do acervo digital (temperatura do ambiente para os equipamentos
tecnológicos, equipamentos contra incêndio, instalações adequadas de para-raios); entre
outras questões;
5) ARMAZENAMENTO: essa questão deve permear todo o ciclo de vida dos documentos,
tanto convencionais como os digitais, para garantir a autenticidade e o acesso aos mesmos. É
importante considerar as seguintes questões sobre o armazenamento: o volume e a estimativa
de crescimento dos documentos (áreas de depósito; tipos e quantidades de estantes;
capacidade dos dispositivos de armazenamento); o armazenamento das cópias de segurança
dos documentos digitais; o controle dos documentos quanto às características físicas do
suporte e do ambiente (contaminação do documento no ambiente, temperatura, umidade, troca
de suporte, medidas para conservação do ambiente); a frequência de uso dos documentos
(para oferecer uma forma de armazenamento mais rápida aos usuários); o custo relativo das
opções de armazenamento (devido ao alto custo com o armazenamento, as opções de
terceirização devem ser avaliadas quanto às garantias legais de custódia, restrições de aceso e
capacidade tecnológica, por exemplo);
6) PRESERVAÇÃO: para os documentos convencionais a preservação está relacionada com
a estabilidade e manutenção do suporte. Para os documentos digitais a preservação incide
sobre a manutenção do acesso, que pode implicar em questões como: mudança de suporte, de
formato e atualização do ambiente tecnológico; preservação da obsolescência tecnológica e
danos físicos ao suporte, por meio de procedimentos de migração e conversão; uso de técnicas
de emulação, encapsulamento, preservação tecnológica, formatos abertos, entre outras
questões. Um fator importante nesse processo é a inclusão de metadados de preservação, para
documentar as alterações nos documentos e preservá-los ao longo do tempo nos sistemas
(CONSELHO NACIONAL DE ARQUIVOS, 2011).
Portanto, os metadados desempenham um papel fundamental nos sistemas
informatizados, pois representam, contextualizam os documentos e registram as
características adquiridas em cada processo de gestão arquivística, evitando que essas
informações sejam perdidas ao longo do ciclo de vida nos sistemas.
A Arquivística contemporânea vem se preocupando com o estabelecimento adequado
da gestão arquivística de documentos em sistemas automatizados, em especial em relação aos
3436
seguintes aspectos: a definição de diretrizes de gestão, a especificação de requisitos funcionais
e os metadados para os sistemas informatizados.
Assim, aborda-se a seguir as características e definições dos metadados no domínio
arquivístico e, posteriormente, os tipos metadados arquivísticos identificados na norma ISO
23081-1:2006 e no Modelo de Requisitos e-ARQ Brasil, foco da análise deste trabalho.
3 METADADOS ARQUIVÍSTICOS
Um ponto de vista importante considerado neste trabalho é de que os metadados são
produzidos e padronizados há muito tempo em áreas específicas, porém sem ser utilizada esta
denominação. Seu estabelecimento em domínios específicos antecede o surgimento dos
padrões de metadados, ocorrendo por meio de uma abordagem manual de construção de
representações. Portanto, os metadados não são necessariamente digitais ou elementos
exclusivos do ambiente digital e Web, embora sejam elementos inerentes aos sistemas de
informação (MILSTEAD; FELDMAN, 1999; MÉNDEZ RODRÍGUEZ, 2002; GILLILAND,
2008; ALVES, 2010).
Os metadados significam literalmente “dados sobre dados”106. De modo geral,
podemos entender que os metadados são atributos que caracterizam um recurso informacional
(ALVES, 2005).
Também existem diferentes tipologias que os caracterizam e essa variedade depende
do domínio de aplicação, das necessidades dos usuários desse domínio e dos tipos de recursos
informacionais (entidades a serem representadas). De modo geral, os metadados podem ser:
intrínsecos ou extrínsecos às entidades descritas (MÉNDEZ RODRÍGUEZ, 2002);
administrativos, descritivos, de preservação, técnicos e de uso (GILLILAND, 2008); podem
ser criados de modo associado internamente ao recurso ou externamente; podem ser criados
automaticamente ou de forma manual; podem ser metadados estáticos ou dinâmicos, de curta
duração ou longa duração; podem ser metadados estruturados, semiestruturados e livres; com
valores controlados ou não por padrões de conteúdo, que são preenchidos por especialistas do
domínio ou não especialistas; podem ser metadados de coleções de recursos ou de um item
específico, entre outras características (GILLILAND, 2008).
Quanto às funções que desempenham identificam-se duas perspectivas: uma
tradicional e uma emergente. A perspectiva tradicional compreende a realização de funções
106
Miller (1996); Souza, Catarino e Santos (1997); Milstead e Feldman (1999); Gilliland-Swetland
(1999); Souza, Vendrusculo e Melo (2000); Takahashi (2000); Senso e Rosa Piñero (2002);
Méndez Rodríguez (2002); Zeng e Qin (2008) entre outros.
3437
como identificação, descrição, busca, recuperação e localização dos recursos; já a perspectiva
emergente, compreende a realização de funções como autoria, propriedade intelectual, formas
de acesso, atualização da informação, preservação e conservação, restrição de uso, valoração
do conteúdo, visibilidade da informação e acessibilidade dos conteúdos (MÉNDEZ
RODRÍGUEZ, 2002).
É importante observar que os metadados de funções tradicionais e emergentes podem
ser utilizados conjuntamente. A primeira função dos metadados seria garantir o
gerenciamento da informação, por meio da identificação e da descrição para o acesso, busca,
localização e recuperação da informação. Em relação aos sistemas de informação, os
metadados tem a função de facilitar o gerenciamento e o acesso às informações, o intercâmbio
de dados e a interoperabilidade entre sistemas. Já em relação aos usuários dos sistemas, os
metadados identificam a informação acessível, sua localização e as condições para se chegar
até ela (MÉNDEZ RODRÍGUEZ, 2002).
No contexto do domínio arquivístico, os metadados cumprem papéis tradicionais e
emergentes, dentre as funções que desempenham destaca-se: identificação, descrição, busca,
recuperação, localização e preservação do recurso; contextualizam os recursos nos sistemas
de informação, em especial, nos processos de gestão arquivística de documentos em sistemas
informatizados; gerenciam os recursos e outros metadados nos sistemas; otimizam a
recuperação; promovem a interoperabilidade entre sistemas, dentre outras funções
(GILLILAND, 2008).
Há uma variedade de definições para o termo metadados, por isso, é necessário
contextualizá-lo de acordo com o domínio onde está sendo utilizado.
Em sistemas de banco de dados os metadados são considerados atributos107,
características que identificam uma entidade (objeto do mundo real) que pode ser, por
exemplo, um recurso informacional ou um documento arquivístico 108 (CHEN, 1990; COAD,
YOURDON, 1991).
De acordo com os estudos de Alves (2010, p. 47), os metadados para o domínio
bibliográfico ou o domínio de bibliotecas são
107
108
“Um atributo é um dado (informação de estado) para qual cada Objeto em uma Classe tem seu
próprio valor” (COAD, YOURDON, 1991, p. 117). Essa definição provém da área de Análise
Orientada a Objeto e se constitui com conceitos adotados em sistemas de informações.
Um documento arquivístico pode ser tradicional, eletrônico ou digital e é definido como “[...] um
documento produzido e/ou recebido e mantido por pessoa física ou jurídica, no decorrer das suas
atividades, qualquer que seja o suporte, e dotado de organicidade.” (CONSELHO NACIONAL
DE ARQUIVOS, 2011, p. 09).
3438
[...] atributos que representam uma entidade (objeto do mundo real) em um
sistema de informação. Em outras palavras, são elementos descritivos ou
atributos referenciais codificados que representam características próprias ou
atribuídas às entidades; são ainda dados que descrevem outros dados em um
sistema de informação, com o intuito de identificar de forma única uma
entidade (recurso informacional) para posterior recuperação.
Embora essa definição tenha sido estabelecida para o domínio bibliográfico, é possível
utilizá-la para compreender os metadados do Universo Bibliográfico como um todo e,
portanto, entendê-los do ponto de vista arquivístico.
No domínio arquivístico o termo metadados vem sendo definido pela CTDE – Câmara
Técnica de Documentos Eletrônicos - como “dados estruturados que descrevem e permitem
encontrar, gerenciar, compreender e/ou preservar documentos arquivísticos ao longo do
tempo” (CONSELHO NACIONAL DE ARQUIVOS, 2011, p. 90). Percebe-se que esta
definição explica o significado dos metadados vinculando-os às funções que desempenham no
domínio arquivístico.
Com base nos estudos sobre metadados anteriormente desenvolvidos (ALVES, 2010)
e na definição estabelecida pela Câmara Técnica de Documentos Eletrônicos, considera-se
para neste trabalho que metadados arquivísticos são: atributos que representam
características próprias ou atribuídas a uma entidade que podem estar em meio digital ou não,
com o objetivo de encontrar, gerenciar, compreender e/ou preservar dados e documentos
arquivísticos ao longo do tempo em um sistema informatizado de gestão arquivística de
documentos ou outro ambiente arquivístico (CONSELHO NACIONAL DE ARQUIVOS,
2011; ALVES, 2010).
Neste sentido, constatou-se que os metadados arquivísticos estão presentes em todo o
ciclo de vida dos documentos nos arquivos, mais especificamente, nos processos de gestão
arquivística de documentos refletidos nos sistemas informatizados.
3.1 Metadados Da Norma ISO 23081-1:2006
A norma ISO 23081 representa um marco no domínio arquivístico, pois estabelece a
criação, gerenciamento e uso dos metadados para a gestão arquivística de documentos. A
norma é composta por três partes:
a)
ISO 23081-1:2006 – Information and documentation – Records management
processes – Metadata for records – Part 1: Principles: aborda os princípios que sustentam e
regem a determinação dos metadados para os processos de gestão arquivística de documentos
(records management) (INTERNATIONAL ORGANIZATION OF STANDARDIZATION,
2013a).
3439
b)
ISO 23081-2:2009 – Information and documentation – Managing metadata for
records -- Part 2: Conceptual and implementation issues: estabelece um framework que:
define os elementos de metadados; permite a descrição padronizada das entidades; fornece
uma compreensão comum para a interoperabilidade entre os sistemas e permite a reutilização
dos metadados (INTERNATIONAL ORGANIZATION OF STANDARDIZATION, 2013b).
c)
ISO 23081-3:2011 – Information and documentation – Managing metadata for
records -- Part 3: Self-assessment method: fornece orientações para a realização de uma
autoavaliação sobre os metadados da gestão arquivística de documentos (INTERNATIONAL
ORGANIZATION OF STANDARDIZATION, 2013c).
A norma ISO 23081-1, é abordada neste trabalho, pois se constitui como um guia para
entender, implantar e utilizar metadados próprios da gestão arquivística de documentos e dos
processos de negócios (qualquer outro tipo de atividade: comercial, administrativa, atividades
de organizações sem fins lucrativos etc.) (INTERNATIONAL ORGANIZATION OF
STANDARDIZATION, 2006, 2008).
Os tipos e categorias de metadados da norma ISO 23081-1 foram determinados de
acordo com as principais entidades e relações identificadas na análise do domínio
arquivístico, em especial, com a análise dos processos de gestão arquivística de documentos e
processos de negócios. Assim, a norma está baseada nas seguintes entidades do domínio
arquivístico:
Entidade documento: refere-se não só do documento, mas também de seus
agrupamentos;
Entidade agente: os responsáveis pelos documentos, atividades e processos;
Entidade processos de negócios: trata-se das funções, atividades, transações,
segurança, acesso dos documentos;
Entidade processos de gestão: refere-se aos processos de gestão de documentos
(INTERNATIONAL ORGANIZATION OF STANDARDIZATION, 2006, 2008).
Com base nessas entidades a ISO 23081-1 estabelece cinco categorias de metadados,
que se subdividem em metadados criados no momento da incorporação do documento no
sistema e metadados criados e incorporados posteriormente à inclusão do documento no
sistema (INTERNATIONAL ORGANIZATION OF STANDARDIZATION, 2006, 2008). As
categorias de metadados contempladas na norma são apresentadas a seguir:
3440
1) Metadados sobre o próprio documento: a) metadados sobre o documento no
momento da captura, b) metadados sobre o documento posterior a captura, c)
metadados para o acesso aos documentos, d) metadados para segurança dos
documentos;
2) Metadados sobre regras de negócios, política e regulamentações: a) metadados
sobre regras de negócios, políticas e regulamentações no momento da captura, b)
metadados sobre regras de negócios, políticas e regulamentações posterior a captura;
3) Metadados sobre agentes: a) metadados sobre agentes no momento da captura, b)
metadados sobre agentes posterior a captura;
4) Metadados sobre processos de negócios: a) metadados do processo de negócios no
momento da captura, b) metadados do processo de negócios posterior a captura;
5) Metadados sobre processos de gestão de documentos: a) metadados sobre processos
de gestão de documentos no momento da captura, b) metadados sobre processos de
gestão de documentos posterior a captura.
É importante ressaltar que a norma estabelece ainda tipos mais específicos de
metadados, entretanto, optou-se por não apresenta-los devido a sua extensão. Além disso, a
norma não define um conjunto obrigatório (esquema de metadados), pois essa escolha deve
ser feita com base nos requisitos de cada organização, de suas atividades e dos processos de
gestão que realizam. Também existem diferentes níveis de aplicação dos metadados, de acordo
com cada organização, que devem ser escolhidos entre: os metadados aplicados aos
documentos individuais; os metadados aplicados ao conjunto ou agrupamentos dos
documentos; ou os metadados aplicados aos sistemas completos de gestão arquivística de
documentos. A decisão sobre os níveis de aplicação dos metadados deverão ser especificadas
nas políticas e regras elaboradas pelas instituições para a gestão de metadados nos sistemas
informatizados (INTERNATIONAL ORGANIZATION OF STANDARDIZATION, 2006,
2008). A ISO 23081-1 determina que um sistema informatizado deve ser projetado para
permitir a incorporação de metadados em qualquer um desses níveis, além disso, é preciso
que os metadados sejam atualizados quando necessário para evitar perda de contexto durante
sua gestão como, por exemplo, no momento de transferência de uma organização para outra.
Além dos metadados próprios da gestão arquivística de documentos, é possível que
outros tipos sejam incorporados ao sistema, vindo de diferentes fontes como, por exemplo:
metadados herdados de sistemas de workflow; metadados de correio eletrônico; metadados do
comércio eletrônico (e-business, e-commerce e e-government); metadados de preservação;
3441
metadados para descrição do recurso (normas de descrição arquivística); metadados para
descoberta de recursos (incluindo metadados de acessibilidade); metadados para o
gerenciamento de direitos entre outros (INTERNATIONAL ORGANIZATION OF
STANDARDIZATION, 2006, 2008). Por esta razão, é importante considerar um contexto
mais geral de criação e incorporação dos metadados na gestão arquivística de documentos,
assegurando o estabelecimento de suas relações sem a duplicação de metadados.
A norma ISO 23081-1 não só aborda os princípios para a determinação dos metadados
dos processos de gestão arquivística como também determina um modelo conceitual para o
domínio arquivístico. Portanto, constitui-se como um instrumento relevante para a
determinação padronizada de esquemas de metadados no domínio arquivístico, além de servir
de base para avaliação dos esquemas de metadados já existentes.
3.2 Metadados do modelo de requisitos e-arq brasil
O Modelo de Requisitos para os Sistemas Informatizados de Gestão Arquivística de
Documentos e-ARQ Brasil constitui-se como uma especificação de requisitos a serem
cumpridos pela organização produtora e recebedora de documentos nos sistemas
informatizados de gestão arquivística para garantir a confiabilidade, autenticidade e
acessibilidade dos documentos arquivísticos. O modelo estabelece requisitos mínimos para os
Sistemas Informatizados de Gestão Arquivística de Documentos - SIGAD109 independente da
plataforma tecnológica e seu objetivo é orientar a implantação da gestão arquivística de
documentos digitais e não digitais em sistemas informatizados, por meio de especificações
técnicas, funcionais e por meio do estabelecimento de um esquema de metadados conceitual.
O desenvolvimento do modelo teve início em 2004 e em 2011 foi lançada a versão que
contempla o esquema de metadados conceitual para os sistemas informatizados (CONSELHO
NACIONAL DE ARQUIVOS, 2011).
A metodologia para o estabelecimento do esquema foi baseada em quatro etapas: a
primeira etapa identificou os metadados referidos no e-ARQ Brasil, em especial, na descrição
das etapas de gestão arquivística (Parte I do modelo) e nos requisitos apresentados na seção
aspectos de funcionalidade do SIGAD (Parte II). A segunda etapa complementou os
metadados identificados, a partir de normas e referências bibliográficas das áreas de
109
Um SIGAD pode ser definido como [...] um conjunto de procedimentos e operações técnicas que
visam o controle do ciclo de vida dos documentos, desde a produção até a destinação final,
seguindo os princípios da gestão arquivística de documentos e apoiado em um sistema
informatizado (CONSELHO NACIONAL DE ARQUIVOS, 2011, p. 11).
3442
arquivologia e diplomática. A terceira etapa confrontou o levantamento inicial com esquemas,
normas e padrões de metadados semelhantes, nacionais e internacionais. A quarta etapa
analisou, definiu e aprovou o esquema (CONSELHO NACIONAL DE ARQUIVOS, 2011).
O esquema de metadados do Modelo de Requisitos e-ARQ Brasil apresenta uma
estrutura de entidades e relacionamentos diferente do modelo conceitual da norma ISO
23081-1. Além disso, os atributos conceituais são definidos de modo mais específico e não
apenas categorias e subcategorias de metadados. O esquema de metadados do modelo foi
baseado em seis entidades do domínio arquivístico: documento; evento de gestão; classe;
agente; componente digital e evento de preservação. Apresenta-se a seguir cada uma das
entidades, uma breve explicação e os tipos de metadados contemplados em cada uma delas:
1) ENTIDADE DOCUMENTO: são os documentos arquivísticos gerenciados pelo
SIGAD, esses documentos estabelecem relações entre si, formando agregações
denominadas processos ou dossiês; estabelece relação com a classe no momento de
sua captura no SIGAD e com uma série de eventos de gestão arquivística ao longo de
seu ciclo de vida. Os documentos arquivísticos podem ser classificados e gerenciados
de duas formas: individualmente ou agregados em processos ou dossiês. Se o
documento arquivístico for digital ele será composto por um ou mais componentes
digitais. De modo geral, os metadados desta entidade tem como característica:
descrever, identificar, proporcionar o acesso, garantir a integridade e a preservação dos
documentos etc. Além disso, podem ser aplicados apenas em alguns níveis de
agregação (processo/dossiê, volume e documento), conforme as especificações do
esquema. Os metadados da entidade documento especificados no esquema conceitual
do modelo de requisitos são: 1 Identificador do documento; 2 Número do documento;
3 Número do protocolo; 4 Identificador do processo/dossiê; 5 Número do
processo/dossiê; 6 Identificador do volume; 7 Número do volume; 8 Tipo de meio; 9
Status; 10 Identificador de versão; 11 Título; 12 Descrição; 13 Assunto; 14 Autor; 15
Destinatário; 16 Originador; 17 Redator; 18 Interessado; 19 Procedência; 20
Identificador do componente digital; 21 Gênero; 22 Espécie; 23 Tipo; 24 Idioma; 25
Quantidade de folhas/página; 26 Numeração sequencial dos documentos; 27 Indicação
de anexos; 28 Relação com outros documentos; 29 Níveis de acesso; 30 Data de
produção; 31 Classe; 32 Destinação prevista; 33 Prazo de guarda; 34) Localização
(CONSELHO NACIONAL DE ARQUIVOS, 2011).
2) ENTIDADE EVENTO DE GESTÃO: são as ações de gestão arquivística que
ocorrem com os documentos ao longo de seu ciclo de vida (captura, tramitação,
3443
abertura
e
encerramento
de
processo/dossiê,
classificação,
desclassificação,
eliminação, transferência, recolhimento, entre outros). O evento de gestão estabelece
relações com o documento e com o agente responsável pela ação. De modo geral, os
metadados desta entidade referem-se aos eventos de captura, movimentação e controle
do ciclo de vida dos documentos arquivísticos. Os metadados da entidade evento de
gestão especificados no esquema conceitual do modelo de requisitos são os seguintes:
1 Captura; 2 Tramitação; 3 Transferência; 4 Recolhimento; 5 Eliminação; 6
Abertura_processo/dossiê;
7
Encerramento_processo/dossiê;
8
Reabertura_processo/dossiê; 9 Abertura_volume; 10 Encerramento_volume; 11
Juntada_anexação; 12 Juntada_apensação; 13 Desapensação; 14 Desentranhamento;
15 Desmembramento; 16 Classificação_sigilo; 17 Desclassificação_sigilo; 18
Reclassificação_sigilo (CONSELHO NACIONAL DE ARQUIVOS, 2011).
3) ENTIDADE CLASSE: refere-se aos níveis de agregação do plano de classificação
organizados de forma hierárquica: classe, subclasse, grupos e subgrupos. Em cada
classe estão associadas informações a respeito da temporalidade e destinação dos
documentos, sendo que todas as alterações devem ser registradas em metadados
específicos da classe. As classes estão relacionadas aos documentos arquivísticos nelas
classificados. De modo geral, os metadados desta entidade referem-se à configuração e
administração do plano de classificação. Os metadados da entidade classe
especificados no esquema conceitual do modelo de requisitos são agrupados em duas
categorias, conforme apresentados a seguir: 1 Descrição da Classe (1.1 Classse_nome;
1.2 Classe_código; 1.3 Classe_subordinação; 1.4 Registro de abertura; 1.5 Registro de
desativação; 1.6 Reativação da classe; 1.7 Registro de mudança de nome de classe; 1.8
Registro de deslocamento de classe; 1.9 Registro de extinção; 1.10 Indicador de classe
ativa/inativa); 2 Temporalidade associada à classe (2.1 Classe_código; 2.2 Prazo de
guarda na fase corrente; 2.3 Evento que determina a contagem do prazo de guarda na
fase corrente; 2.4 Prazo de guarda na fase intermediária; 2.5 Evento que determina a
contagem do prazo de guarda na fase intermediária; 2.6 Destinação final; 2.7 Registro
de alteração; 2.8 Observações) (CONSELHO NACIONAL DE ARQUIVOS, 2011).
4) ENTIDADE AGENTE: são os usuários que acessam o SIGAD, que podem ser
usuários que desempenham funções específicas (ou cargos com responsabilidade e
autoridades bem definidas) e como grupo (conjunto de usuários reunidos para a
realização de uma atividade em comum, por um determinado tempo). Os agentes se
relacionam: entre si (usuários podem ser agregados em papéis e grupos e um usuário
3444
pode estar associado com um ou mais papéis) e, com o evento de gestão e evento de
preservação pelo qual é responsável. Os metadados da entidade agente especificados
no esquema conceitual do modelo de requisitos são: 1 Nome; 2 Identificador; 3
Autorização de acesso; 4 Credenciais de autenticação; 5 Relação; 6 Status do agente
(CONSELHO NACIONAL DE ARQUIVOS, 2011).
5) ENTIDADE COMPONENTE DIGITAL: são os objetos digitais que compõem o
documento arquivístico digital como, por exemplo: arquivos de computadores com
informações de conteúdo, forma e composição necessárias à apresentação do
documento arquivístico. As ações de preservação são realizadas nos componentes
digitais, sendo que cada documento pode estar relacionado com um ou mais
componentes digitais que, por sua vez, pode conter informações de um ou mais
documentos. Os metadados da entidade componente digital especificados no esquema
conceitual do modelo de requisitos são: 1 Identificador do componente digital; 2 Nome
original; 3 Características técnicas; 4 Formato de arquivo; 5 Armazenamento; 6
Ambiente de software; 7 Ambiente de hardware; 8 Dependências; 9 Relação com outros
componentes digitais; 10 Fixidade (CONSELHO NACIONAL DE ARQUIVOS,
2011).
6) ENTIDADE EVENTO DE PRESERVAÇÃO: são as ações de preservação
realizadas nos documentos arquivísticos digitais, como por exemplo: migração,
compressão, validação, decifração, entre outras. O evento de preservação relaciona-se
com o componente digital e com o agente responsável pela ação de preservação.
Ressalta-se aqui os eventos mais importantes a serem registrados, podendo ser
incluídos outros de acordo com a necessidade. Os metadados da entidade evento de
preservação especificados no esquema conceitual do modelo de requisitos são: 1
Compressão; 2 Decifração; 3 Validação de assinatura digital; 4 Verificação de
fixidade; 5 Cálculo hash; 6 Migração; 7 Replicação; 8 Verificação de vírus; 9
Validação (CONSELHO NACIONAL DE ARQUIVOS, 2011).
O esquema de metadados do Modelo de Requisitos e-ARQ Brasil constitui-se como
um esquema conceitual no qual apresenta: os metadados, suas definições, seus refinamentos
(atributos que representam informações mais específicas), as especificações que os
normalizam, os requisitos que atendem no SIGAD, notas de aplicação e o nível de
obrigatoriedade dos atributos. O esquema caracteriza-se por ser flexível, pois cada órgão ou
3445
instituição deve eleger os metadados que mais se adéquam às suas necessidades, de acordo
com os níveis de obrigatoriedade.
Os esquemas de metadados apresentados: esquema de metadados da norma ISO
23081-1:2006 e o esquema de metadados do Modelo de Requisitos e-ARQ Brasil, apresentam
semelhanças e diferenças entre si. Primeiramente pode-se destacar que os dois esquemas de
metadados constituem-se como esquemas conceituais que podem ser implementados em
qualquer sistema informatizado de gestão arquivística de documentos – SIGAD. Entretanto,
para isso necessitam de uma estrutura automatizada, de uma sintaxe de codificação e
persistência (armazenamento) dos atributos e seus valores. Além disso, devem seguir um
modelo conceitual para estruturas as entidades e relações no banco de dados e ao mesmo
tempo fazer existir a estrutura lógica de descrição das entidades.
Deste modo, além de escolher qual esquema de metadados seguir, qual conjunto de
metadados e qual nível será utilizado em um órgão ou instituição específica, é preciso adotar
outros instrumentos que auxiliarão no estabelecimento e padronização dos metadados e seus
valores. Neste sentido, apresenta-se a seguir os instrumentos existentes no domínio
arquivístico que auxiliarão no estabelecimento padronizado dos metadados e seus valores:
a) INSTRUMENTOS
PRINCIPAIS
DA
GESTÃO
ARQUIVÍSTICA
DE
DOCUMENTOS: esses instrumentos determinam alguns metadados e padronizam
seus valores nos esquemas de metadados ou padrões de metadados já existentes. Os
instrumentos principais da gestão arquivística são: Plano de classificação, baseado nas
funções e atividades do órgão ou entidade; tabela de temporalidade e destinação;
Manual de gestão arquivística de documentos; Esquema de classificação referente à
segurança e ao acesso aos documentos.
b) INSTRUMENTOS
ADICIONAIS
DA
GESTÃO
ARQUIVÍSTICA
DE
DOCUMENTOS: esses instrumentos padronizam os valores dos metadados. Os
instrumentos adicionais são: Glossário; Vocabulário controlado e Tesauro.
c) INSTRUMENTOS
DE
APOIO
DA
GESTÃO
ARQUIVÍSTICA
DE
DOCUMENTOS: esses instrumentos fornecem informações sobre o gerenciamento
dos metadados e seus valores no sistema, informações sobre o contexto da gestão
arquivística, informações sobre usuários e permissões de acesso. Os instrumentos de
apoio da gestão arquivística são: Relatório de análise do contexto jurídicoadministrativo do órgão ou entidade; Relatório dos riscos que envolvem as atividades
desenvolvidas pelo órgão ou entidade; Plano de contingência e plano de prevenção
contra desastres; Estrutura organizacional e delegação de competências do órgão ou
3446
entidade; Registro dos funcionários e das permissões de acesso aos sistemas do órgão
ou entidade.
d) MODELOS CONCEITUAIS: os modelos conceituais são responsáveis por definir as
entidades, os atributos e os relacionamentos do domínio arquivístico, além de
estruturar os metadados e seus relacionamentos nos bancos de dados dos sistemas
informatizados. Os modelos conceituais do domínio arquivístico são: MoReq –
Modular Requirements for Records Systems (Modelo de Requisitos para a Gestão de
Registros Eletrônicos); e-ARQ Brasil - Modelo de Requisitos para Sistemas
Informatizados de Gestão Arquivística de Documentos; Design criteria standard for
electronic records management software applications: DOD 5015.2-STD, 2002;
Requirements for electronic records management systems: Functional requirements,
United Kingdom, 2002.
e) ESQUEMAS DE CODIFICAÇÃO: dividido em esquemas de codificação de
conteúdo e esquemas de codificação de valores que, por sua vez, são subdivididos em
tipos mais específicos. Esquemas de codificação de conteúdo, composto por padrões
que determinam a estrutura de dados (determinam uma estrutura codificada para os
metadados, ex.: um esquema de metadados estruturado na linguagem XML apresenta
um metadado (atributo codificado) e o espaço do valor, que em alguns casos são
padronizados de acordo com esquemas externos); e padrões de intercâmbio e
interoperabilidade de dados (como, por exemplo, o protocolo OAI-PMH - Open
Archives Initiative Protocol for Metadata Harvesting). Esquemas de codificação de
valores, composto por padrões de conteúdo de dados (são padrões ou códigos
elaborados para a representação arquivística, como por exemplo: ISAD (G) - Norma
geral internacional de descrição arquivística; ISAAR (CPF) - Norma internacional de
registro de autoridade arquivística para entidades coletivas, pessoas e famílias; ISDF Norma internacional para descrição de funções; ISDIAH - Norma internacional para
descrição de instituições com acervo arquivístico; NOBRADE - Norma brasileira de
descrição arquivística); e padrões de valores de dados (padronizam os valores no
espaço do valor e os instrumentos são: Tesauros, vocabulário controlado, listas de
autoridade, esquemas de classificação, tabelas de temporalidade e destinação, Plano de
classificação, Esquema de classificação referente à segurança e ao acesso aos
documentos, entre outros).
f) PADRÕES DE METADADOS UTILIZADOS NO DOMÍNIO ARQUIVÍSTICO:
esses padrões de metadados são ou podem ser utilizados no domínio arquivístico,
3447
entretanto, é importante destacar que alguns deles pertencem a outros domínios como,
por exemplo, o padrão MARC 21 do domínio bibliográfico e o padrão Dublin Core do
domínio Web. Os padrões de metadados do domínio arquivístico são: MARC 21 e
desdobramentos, em especial MARC 21 HOLDINGS e MARC 21 AUTORIDADES
(incluindo a versão em MARC XML); EAD - Encoded Archival Description; DC Dublin Core; e-Government Metadata Standard – e-GMS, United Kingdom, v. 3.0,
2004; Metainformação para Interoperabilidade de Portugal – MIP, Lisboa, 2006;
MoReq 2 – Model requirements for the management of electronic records update and
extension, 2007; Padrão de Metadados do Governo Eletrônico – e-PMG, Brasil
(minuta); PREMIS Data Dictionary for Preservation Metadata – version 2.
g) ESQUEMAS DE METADADOS CONCEITUAIS UTILIZADOS NO DOMÍNIO
ARQUIVÍSTICO: esses esquemas constituem-se como esquemas conceituais, ou
seja, não apresentam estrutura codificada e implementável para os metadados,
entretanto, servem de base para avaliação dos requisitos e metadados arquivísticos de
outros padrões e esquemas de metadados existentes no domínio. Os esquemas de
metadados conceituais são: Esquema do Modelo de Requisitos e-ARQ Brasil;
ISO23081-1 Information and documentation – Records management processes –
Metadata for records – Part 1: Principles, 2006.
Esses instrumentos são responsáveis não só pelo estabelecimento dos metadados, mas
também da padronização de seus valores e estruturação do banco de dados do sistema
informatizado. A adoção desses instrumentos, segundo os requisitos e necessidades da
instituição arquivística, garante uma representação estruturada e padronizada, oferecendo
maior qualidade ao sistema informatizado.
4 CONCLUSÕES
Pode-se dizer que os metadados são atributos que representam características próprias
ou atribuídas a uma entidade arquivística ao longo dos processos de gestão arquivística de
documento em sistemas informatizados. Durante seu ciclo de vida em sistemas
informatizados, os documentos arquivísticos vão adquirindo novos contextos de uso que
necessitam ser registrados. Assim, novas camadas de metadados são adicionadas aos
documentos conforme passam pelos processos de gestão arquivística.
Existem diferentes tipos e níveis de metadados distribuídos entre os processos de
gestão arquivística. Os metadados aqui apresentados foram estabelecidos com base em
3448
modelos conceituais do domínio arquivístico que identificam as entidades, seus atributos
(características essenciais que devem ser representadas) e os relacionamentos que realizam no
contexto dos processos de gestão arquivística.
Os esquemas de metadados apresentados constituem-se como esquemas conceituais e
flexíveis, que podem ser implementados nos sistemas informatizados de qualquer instituição
arquivística. Nesse sentido, ressalta-se nesse estudo a importância da gestão de metadados na
gestão arquivística de documentos e a utilização de outros instrumentos arquivísticos
(instrumentos da gestão arquivística; instrumentos adicionais e de apoio à gestão arquivística;
modelos conceituais; esquemas de codificação; padrões de metadados e esquemas
conceituais) que padronizam o estabelecimento de metadados arquivísticos e seus valores.
Com este estudo foi possível verificar que os metadados arquivísticos são
estabelecidos com base em entidades do domínio arquivístico, modelos conceituais e
processos de gestão arquivística. Foi possível verificar também que as teorias sobre os
metadados estão em consonância com o domínio arquivístico, pois os metadados arquivísticos
são estabelecidos de acordo com os aspectos tecnológicos (modelos conceituais, requisitos do
sistema e esquemas) necessários para sua consolidação nos sistemas informatizados de gestão
arquivística, juntamente com os aspectos representacionais (esquemas externos de codificação
de dados e valores dos metadados arquivísticos), que garantem a padronização dos metadados
e seus valores. Essas características são uma tendência na comunidade de metadados e ao
mesmo tempo uma exigência do domínio arquivístico, por se tratar de um domínio específico.
REFERÊNCIAS
ALVES, R. C. V. Metadados como elementos do processo de catalogação. 2010. 132f.
Tese (Doutorado em Ciência da Informação)-Faculdade de Filosofia e Ciências, Universidade
Estadual Paulista, Marília, 2010.
ALVES, R. C. V. Web Semântica: uma análise focada no uso de metadados. 2005. 180f.
Dissertação (Mestrado em Ciência da Informação)-Faculdade de Filosofia e Ciências,
Universidade Estadual Paulista, Marília, 2005.
ARQUIVO NACIONAL (BRASIL). Dicionário brasileiro de terminología arquivística.
Rio de Janeiro: Arquivo Nacional, 2005.
CHEN, P. Modelagem de dados: a abordagem Entidade-Relacionamento para projeto lógico.
São Paulo: McGraw-Hill, MAKRON Books, 1990.
COAD, P. YOURDON, E. Análise baseada em objetos. 2. ed. Rio de Janeiro: Campus,
1991.
CONSELHO NACIONAL DE ARQUIVOS (BRASIL). CÂMARA TÉCNICA DE
DOCUMENTOS ELETRÔNICOS. e-ARQ Brasil: modelo de requisitos para sistemas
3449
informatizados de gestão arquivística de documentos - Versão 1.1. Rio de Janeiro: Arquivo
Nacional, 2011. Disponível em:
<http://www.conarq.arquivonacional.gov.br/cgi/cgilua.exe/sys/start.htm>. Acesso em: 23 jun.
2011.
FONSECA, M. O. Arquivologia e ciência da informação. Rio de Janeiro: Editora FGV,
2005.
GILLILAND, A. J. Setting the stage. In: BACA, M. (Ed.). Introduction to metadata. 2. ed.
Los Angeles: Getty Research Institute, 2008. p. 1-19.
GILLILAND-SWETLAND, A. J. La definición de los metadatos. In: INTRODUCCIÓN a
los metadatos: vías a la información digital. [S. l.]: GETTY, 1999. p. 1-9.
IFLA. Declaração dos Princípios Internacionais de Catalogação. 2009. Disponível em:
<http://archive.ifla.org/VII/s13/icp/ICP-2009_pt.pdf>. Acesso em: 27 jan. 2010.
INTERNATIONAL ORGANIZATION OF STANDARDIZATION. Información y
documentación - Procesos de gestión de documentos - Metadatos para la gestión de
documentos. Parte 1: Principios. ISO 23081-1:2006. Revista Española de Documentación
Científica, Madrid, v. 31, n. 2, p. 27-301. 2008. Disponível em:
<http://redc.revistas.csic.es/index.php/redc/article/view/429/441>. Acesso em: 10 dez. 2013.
INTERNATIONAL ORGANIZATION OF STANDARDIZATION. ISO 23081-1:
Information and documentation – Records management process – Metadata records – Part 1:
Principles, 2006.
INTERNATIONAL ORGANIZATION OF STANDARDIZATION. ISO 23081-1:2006 –
Information and documentation - Records management processes - Metadata for records Part 1: Principles, 2013a.
INTERNATIONAL ORGANIZATION OF STANDARDIZATION. ISO 23081-2:2009 Information and documentation - Managing metadata for records - Part 2: Conceptual and
implementation issues, 2013b.
INTERNATIONAL ORGANIZATION OF STANDARDIZATION. ISO/TR 23081-3:2011
Information and documentation - Managing metadata for records - Part 3: Self-assessment
method, 2013c.
MÉNDEZ RODRÍGUEZ, E. Metadados y recuperación de información: estándares,
problemas y aplicabilidad en bibliotecas digitales. Gijón: Trea, 2002. 429 p.
MILLER, P. Metadata for the masses. [S. l.: S. n.], 1996. Disponível em:
<http://www.ariadne.ac.uk/issue5/metadata-masses/>. Acesso em: 16 abril 2004.
MILSTEAD, J.; FELDMAN, S. Metadata: cataloging by any other name. Online, [S. l.],
january 1999. Disponível em: < http://www.online.com/online/ol1999/milstead1.html >.
Acesso em: 22 jun. 2004.
RODRIGUES, A. C. Tipologia documental como parâmetro para a gestão de documentos
de arquivos: um manual para o Município de Campo Belo, MG. 2003. Dissertação (Mestrado
em História Social)-Faculdade de Filosofia, Letras e Ciências Humanas, Universidade de São
Paulo, São Paulo, SP. Disponível em: <http://www.teses.usp.br/teses/disponiveis/8/8138/tde25042003-181526/publico/tesaAnaCelia.pdf>. Acesso em: 26 jun 2007.
3450
RONDINELLI, R. C. Gerenciamento arquivístico de documentos eletrônicos: uma
abordagem teórica da diplomática contemporânea. 4. ed. Rio de Janeiro: FGV, 2005.
SENSO, J. A.; ROSA PIÑERO, A. de la. El concepto de metadato. Algo más que descripción
de recursos eletrónicos. Ciência da Informação, Brasília, v. 32, n. 2, p. 95-106, maio/ago.
2003.
SOUZA, M. I. F.; VENDRUSCULO, L. G.; MELO, G. C. Metadados para a descrição de
recursos de informação eletrônica: utilização do padrão Dublin Core. Ciência da
Informação, Brasília, v. 29, n. 1, p. 93-102, jan./abr. 2000. Disponível em:
<http://www.ibict.br/cionline/290100/29010010.pdf>. Acesso em: 6 jul. 2000.
SOUZA, T. B. de; CATARINO, M. E.; SANTOS, P. C. dos. Metadados: catalogando dados
na Internet. Transinformação, Campinas, v. 9, n. 2, maio/ago. 1997. Disponível em:
<http://www.puccamp.br/~biblio/tbsouza92.html>. Acesso em: 12 jul. 2000.
TAKAHASHI, T. (Org.). Sociedade da Informação no Brasil: o livro verde. Brasília:
Ministério da Ciência e Tecnologia, 2000.
ZENG, M. L.; QIN, J. Metadata. New York: Neal-Schuman Publishers, 2008.
3451
UM ROTEIRO PARA MODELAGEM CONCEITUAL DE SISTEMAS DE
INFORMAÇÃO BASEADA EM PRINCÍPIOS ONTOLÓGICOS
A ROADMAP FOR CONCEPTUAL MODELING OF INFORMATION SYSTEMS BASED ON
ONTOLOGICAL PRINCIPLES
Stefane de Melo Silva
Fernanda Farinelli
Resumo: Sistemas de Informação devem ser baseados em representações consistentes da
realidade. Modelos construídos de maneira ad-hoc, sem diretivas que orientem as ações de
modelagem, podem resultar em representações inadequadas, gerar dificuldade de
comunicação e impossibilidade de integração e interoperabilidade entre sistemas. As
ontologias são instrumentos fundamentais para a melhoria da modelagem conceitual, uma vez
que são capazes de fornecer semânticas bem definidas. Este artigo apresenta um passo a passo
para a modelagem conceitual, em forma de um roteiro, com base nos princípios ontológicos
extraídos da Unified Foundational Ontology - UFO. Para isto, contextualiza-se a atividade de
modelagem conceitual e os princípios ontológicos utilizados, através das categorias básicas de
entidades e relações definidas pela ontologia de fundamentação. Em seguida, são descritas as
atividades do roteiro proposto, bem como seus insumos e produtos gerados. Ao final, de
forma a testar a viabilidade do roteiro proposto, descreve-se um estudo de caso de um modelo
real do domínio da administração pública de Minas Gerais.
Palavras-chave: Modelagem conceitual. Ontologia. Unified Foundational Ontology - UFO.
Roteiro.
Abstract: Information Systems should be based on consistent representations of reality.
Conceptual models made by ad-hoc way, without directives that guide the actions of
modeling can result in poor representations, generating communication difficulties and
impossibilities of integration and interoperability between systems. Ontologies are
fundamental tools for the improvement of conceptual modeling, since they are able to provide
well-defined semantics. This paper presents a walkthrough to support conceptual modeling in
the form of a roadmap, based on ontological principles extracted from the Unified
Foundational Ontology. For this, we contextualizes the activity of conceptual modeling and
ontological principles used by the basic categories of entities and relationships defined by
foundational ontology specification. Then, the activities of the proposed roadmap are
described, as well as its inputs and outputs. Finally, in order to test the viability of the
roadmap, we describe a case study of a real domain model of government of Minas Gerais.
Keywords: Conceptual modeling. Ontology. Unified Foundational Ontology - UFO.
Roadmap.
1 INTRODUÇÃO
Empresas que desenvolvem sistemas de informação estão inseridas em um mercado
altamente competitivo e dinâmico. É perceptível, então, a necessidade crescente de
investimentos em suas atividades de engenharia de software, na tentativa de melhorar os seus
processos e produzir produtos e serviços de melhor qualidade. Para isto, existe uma grande
variedade de padrões disponíveis para utilização por empresas de tecnologia da informação
(TI), que variam de processos tradicionais como o Rational Unified Process - RUP
3452
(KRUCHTEN, 2001) a metodologias ágeis, centradas em dados ou em arquitetura, etc. A
atividade de modelagem conceitual está presente na maioria dessas metodologias de
desenvolvimento e é de fundamental importância, pois uma modelagem bem definida é a base
para um bom sistema de informação (SÁNCHEZ, CAVERO e MARCOS, 2005).
Modelos são estruturas de representação criadas a partir de abstrações da realidade.
Podem variar de estruturas conceituais, como modelos mentais, a representações gráficas,
como os modelos comumente elaborados em projetos de software utilizando a Unified
Modeling Language – UML (OMG, 2012). Construir modelos consiste em descrever a
realidade, reproduzindo conceitos e seus relacionamentos relevantes para os usuários, a partir
de uma construção mental especificada por uma linguagem (SÁNCHEZ, CAVERO e
MARCOS, 2005). Os modelos são aplicados na Ciência da Informação no âmbito da
organização e representação da informação como forma de representação de um domínio. Na
Ciência da Computação, os modelos são utilizados como mecanismos de captura e
comunicação de informações pertinentes à construção de um sistema de informação, passando
de modelos conceituais a modelos de dados implementados em um banco de dados.
Segundo Guarino (1998), uma ontologia é um artefato de engenharia de software
constituído por um vocabulário específico, que descreve certa realidade através de uma
hierarquia de conceitos conectados por relações de subordinação. Dentre os tipos de
ontologias existentes na literatura cabe destacar as ontologias de fundamentação, que são
baseadas em estudos, teorias e ferramentas e buscam identificar as entidades básicas do
mundo, sendo capazes de se adequar a vários domínios (OLIVEIRA, 2009).
Para fins de modelagem computacional, modelos e ontologias são conceitos similares,
pois ambos têm a finalidade de representar um domínio de conhecimento a partir de uma
conceitualização da realidade (MENDONÇA e ALMEIDA, 2012). Porém, a aplicação de
ontologias adiciona regras e restrições para possibilitar a padronização e a melhoria semântica
da modelagem.
A escolha por representar determinadas características em um modelo, geralmente, é
feita de maneira ad-hoc, ou seja, parte da conceitualização particular de cada modelador, sem
um embasamento consistente ou algum padrão que o oriente. A aplicação de ontologias à
modelagem pode proporcionar mais subsídios para o modelador, fazendo com que a sua
tomada de decisão passe a ser baseada em um padrão e deixe de ser ad-hoc. Outro benefício
dessa aplicação é facilitar o entendimento sobre “o que é o sistema”, na medida em que a
semântica é trabalhada na definição do domínio de negócio. Assim, acredita-se que a
aplicação de princípios ontológicos para definição de conceitos e relações em um modelo
3453
conceitual pode proporcionar uma aproximação entre a realidade modelada e o modelo
produzido.
Este artigo apresenta um passo a passo para a modelagem conceitual, em forma de um
roteiro, baseado em princípios ontológicos extraídos da Unified Foundational Ontology UFO como proposta para a melhoria semântica de modelos conceituais de sistemas de
informação e também para a melhoria dos processos comunicacionais e melhor entendimento
de um domínio do conhecimento, conforme prerrogativas da Ciência da Informação. Para a
proposta do roteiro, este trabalho contextualiza a atividade de modelagem conceitual e detalha
os princípios ontológicos utilizados através das categorias básicas de entidades e relações
definidas pela UFO. Além disso, de forma a validar a viabilidade do roteiro proposto,
descreve-se um estudo de caso com um modelo real do domínio da administração pública de
Minas Gerais.
O restante deste trabalho está organizado como se segue. A seção dois introduz a
modelagem conceitual, contextualizando-a para a Ciência da Informação e para a Ciência da
Computação. A seção três apresenta as ontologias e detalha os principais conceitos relevantes
para o roteiro proposto. A seção quatro propõe o roteiro e apresenta o estudo de caso. A seção
cinco apresenta as conclusões e perspectivas futuras.
2 Modelagem conceitual
A atividade de criação de modelos, ou modelagem, figura entre diversas áreas da
ciência, caracterizando-se multidisciplinar. Para este trabalho, que transita entre a Ciência da
Computação e a Ciência da Informação, entende-se importante a apresentação de definições
sobre modelagem e também as diversas abordagens de sua aplicação encontradas na literatura,
pertinentes a essas duas áreas, principalmente. Também são apresentadas aqui, e relacionadas
aos conceitos de modelagem, as definições e abordagens sobre ontologias revisadas, que
completam parte da base da fundamentação teórica desta pesquisa.
Modelos são estruturas que possibilitam a representação de informações a partir de
abstrações do mundo real. Podem variar de modelos abstratos, como representações mentais
de forma descritiva, como os modelos matemáticos e diagramas gráficos, a modelos
concretos, que representam todas as características e os requisitos necessários a uma ideia ou
conceito (SÁNCHEZ, CAVERO E MARCOS, 2005). Exemplos de modelos concretos pode
ser uma maquete de uma construção ou uma miniatura de um objeto.
A construção dessas abstrações da realidade que tomam forma a partir dos modelos,
cada pessoa toma como base a sua conceitualização particular e o seu conhecimento prévio
3454
sobre o mundo. Um modelo construído significa, então, abstrações da realidade representadas
a partir da perspectiva de uma pessoa ou grupo de pessoas.
Para Frigg (2006), existem três tipos de questões relativas a modelos: questões de
natureza ontológica, de natureza epistemológica e de natureza semântica. As questões de
natureza ontológica dizem respeito a definir o que são modelos dentre, por exemplo: objetos
físicos, estruturas da teoria dos conjuntos, descrições, equações, ou combinações dos
anteriores. Nas questões de natureza epistemológica, os modelos são considerados meios de
aprendizado e, a partir deles, é possível descobrir características do sistema representado. As
questões de natureza semântica dizem respeito à função representacional dos modelos. Nesse
contexto, cabe distinguir modelos de fenômenos, teorias e modelos de dados. Um modelo de
fenômeno lida com problemas de representação científica. Esse modelo é uma estrutura que
torna verdadeiras as sentenças de uma teoria. Por sua vez, um modelo de dados é uma visão
idealizada de dados obtidos por observação direta. Para Evermann (2005), os modelos
possuem finalidade de meio de comunicação: é necessário entender a realidade, o que pode
ser feito com a ajuda da modelagem.
Para a Ciência da Informação, a modelagem está relacionada à representação do
conhecimento, onde os mecanismos para tal representação possibilitam a elaboração de
linguagens documentárias verbais e notacionais com o objetivo de organização e de
recuperação (CAMPOS, 2001). Segundo Oliveira (2009), a representação constitui um
processo de conhecimento, o qual consiste na assimilação das coisas, sendo os seres humanos
os conhecedores e observadores da realidade externa. Como a Ciência da Informação
necessita de estudos sobre representação, codificação e uso racional da informação
(CAPURRO, 1991), os modelos e a atividade de modelar se apresentam como uma
alternativa.
2.1 Modelagem de sistemas de informação
Na Ciência da Computação, os modelos possuem objetivos distintos, de representar e
de auxiliar na implementação das estruturas computáveis e estão relacionados principalmente
a modelos de dados, estruturas muito utilizadas em empresas de TI para representar a
implementação de um sistema de informação através de estruturas de banco de dados
(OLIVEIRA, 2009). Tais modelos são construídos de maneira que o armazenamento e
recuperação ocorram de maneira eficiente e, em geral, são representados através da linguagem
entidade relacionamento (ER), conforme exemplo da Figura 1. Cougo (1997) afirma que os
modelos de dados são compostos por níveis de abstração distintos, denominados modelo
3455
físico, modelo lógico e modelo conceitual. Cada um desses níveis possui diferentes aspectos a
representar. A área da Ciência da Computação que se preocupa com o desenvolvimento e
manutenção de sistemas, a Engenharia de Software, define disciplinas específicas para
abordagem da modelagem ao longo de um processo de software, sendo chamadas de análise e
desenho de software (PÁDUA, 2001). Interessados em maiores detalhes sobre estas
disciplinas podem consultar Pressman (2011), Sommerville (2003).
FIGURA 4 - Exemplo de um modelo de dados ER
Fonte: Elaborado pelos autores.
Na atividade de modelagem de sistemas, representam-se os principais processos de um
contexto específico objetivando a construção do sistema. A etapa em que são criados modelos
sob a perspectiva do entendimento humano é conhecida como modelagem conceitual. Os
modelos conceituais são obtidos a partir de abstrações de aspectos da realidade, isentos de
decisões ou estruturas que possibilitam a implementação de um sistema e são, geralmente,
representados através da UML. Estas últimas são aplicadas em níveis posteriores de
modelagem de SI. As abstrações são formas de especificar as entidades e as relações entre as
entidades, em um domínio do conhecimento de interesse para o sistema em desenvolvimento.
FIGURA 5 - Exemplo de modelo UML
Fonte: Elaborado pelos autores.
A modelagem conceitual de SI, como conhecida hoje, é resultado de pesquisa
produzida nos últimos 50 anos. Os primeiros modelos de dados (YOUNG; KENT, 1958;
BOSAK ET AL., 1962) deram lugar aos modelos semânticos (ABRIAL, 1974; JARDINE,
1976; CHEN, 1976), aos quais se seguiram os modelos orientadas a objeto (BOOCH, 1993;
RUMBAUGH ET AL., 1991; JACOBSON ET AL., 1992).
Ao longo dos anos, a pesquisa sobre modelos conceituais tem sido motivada pela
busca de formas cada vez mais apuradas de representar a realidade em SI. Entretanto, os
3456
modelos semânticos dispõem de um conjunto limitado de constructos para a tarefa de
modelagem conceitual. O modelo ER, por exemplo, pressupõe que a realidade pode ser
articulada por dois tipos de constructos apenas, as entidades e os relacionamentos. Como
alternativa Guarino (1998) destaca a necessidade de uma conceitualização comum entre
sistemas de informação. A interoperabilidade entre sistemas é possível apenas se as
linguagens subjacentes aos modelos possuem conceitualizações que se sobrepõem em algum
nível. Em última instância, apenas uma conceitualização compartilhada, produto de maior
esforço na comunicação humana, pode proporcionar melhorias na modelagem. Ontologias são
alternativas para especificar tal conceitualização.
3 ONTOLOGIAS
O significado do termo ontologia é apresentado de diferentes formas em áreas diversas
e tem se caracterizado pela coexistência de abordagens interdisciplinares, que abrangem
Ciência da Computação, Filosofia, Ciência da Informação, Linguística, dentre outros campos.
Na filosofia, onde se encontram as suas raízes, ontologia é um sistema particular de
categorias para uma determinada visão do mundo. Nas áreas de computação e sistemas de
informação, refere-se ao conjunto de formalismos que representam conceitos e suas relações,
fundamentados na semântica de um domínio de conhecimento (OLIVEIRA, 2009).
Para Guarino (1998), a ontologia é um artefato de engenharia de software, constituído
por um vocabulário específico que descreve certa realidade, mais um conjunto de
prerrogativas sobre o significado pretendido para os termos do vocabulário. Já Gruber (1993)
define ontologias como um esquema conceitual para sistemas de banco de dados, o qual
fornece a descrição lógica dos dados.
Para Borst (1997), uma ontologia é uma especificação formal e explícita de uma
conceitualização. Nesse contexto, conceitualização refere-se a um modelo abstrato de algum
fenômeno do mundo; formal significa que pode ser lida por máquinas e explícita diz respeito
a restrições explicitamente definidas. Segundo Sowa (2000), uma ontologia é um catálogo de
tipos de coisas que se assume existir em um domínio, na perspectiva de uma pessoa que usa
uma linguagem com a finalidade de representação.
Em Benevides e Guizzardi (2009), ontologia é definida como um sistema formal e
filosoficamente bem fundamentado de categorias que pode ser usado para articular
conceitulizações e modelos em domínios específicos do conhecimento, para áreas como
Modelagem Conceitual e Modelagem Organizacional. Para a Inteligência Artificial, a
Engenharia de Software e a Web Semântica, uma ontologia é um artefato concreto de
3457
engenharia, projetado com um propósito específico e sem prestar nenhuma ou quase nenhuma
atenção a aspectos teóricos de fundamentação. Significa um modelo de um domínio
específico do conhecimento, por exemplo, um modelo da área de finanças, logística, doenças
infecciosas, etc., e expresso em uma linguagem de representação específica, como UML, ER,
SDM, entre outras.
Fonseca (2007) afirma que é importante distinguir as conotações existentes sobre o
termo ontologia, dada a sua utilização em diferentes campos de pesquisa. Uma distinção
apresentada pelo autor classifica ontologias de sistemas de informação e ontologias para
sistemas de informação. No primeiro caso, as ontologias de SI são usadas para criar modelos
conceituais. A segunda distinção se concentra no uso de ontologias como parte do sistema de
informação e descrevem o vocabulário de um domínio. Através de ontologias de SI, é
possível avaliar a capacidade de representação de linguagens de modelagem. Comparam-se os
constructos da linguagem aos constructos ontológicos de uma ontologia utilizada como
referência, também denominada ontologia de fundamentação, nomenclatura utilizada por esta
pesquisa.
3.1 Ontologias de fundamentação para modelagem conceitual
Baseando-se em princípios filosóficos consolidados, é possível identificar e reparar
modelagens deficientes, conduzidas de forma ad-hoc e sem correspondência com o mundo
real através das ontologias de fundamentação.
De acordo com Guizzardi et. al. (2008), ontologias, no sentido filosófico, têm sido
desenvolvidas em filosofia desde Aristóteles com sua teoria de Substância e Acidentes e, mais
recentemente, várias dessas teorias têm sido propostas sob o nome de ontologias de
fundamentação (Foundational Ontologies). Desde o fim da década de oitenta, observa-se um
crescente interesse no uso dessas ontologias de fundamentação no processo de avaliação e
(re)engenharia de linguagens de modelagem conceitual. A hipótese inicial, e que foi
posteriormente confirmada por várias evidências empíricas, pode ser explicada através da
seguinte argumentação: (i) modelos conceituais são artefatos produzidos com o objetivo de
representar uma determinada porção da realidade segundo uma determinada conceitualização;
(ii) ontologias de fundamentação descrevem as categorias que são usadas para a construção
dessas conceitualizações. Pode-se, portanto, concluir que uma linguagem adequada de
modelagem conceitual deve possuir primitivas de modelagem que reflitam as categorias
conceituais definidas em uma ontologia de fundamentação (BENEVIDES E GUIZZARDI,
2009).
3458
Exemplos de ontologias de fundamentação são: a Basic Formal Ontology - BFO
(GRENON; SMITH, 2004), a Descriptive Ontology for Linguisitics and Cognitive
Engineering - DOLCE (MASOLO et al., 2003), a General Formal Ontology - GFO (HERRE
et al., 2006) e a Unified Foundational Ontology - UFO (GUIZZARDI; WAGNER, 2004). Em
sistemas de informação, cabe ainda citar a pesquisa pioneira sobre ontologias de SI conhecida
como Bunge-Wand-Weber Ontology - BWW (WAND; WEBER, 1990) (WAND; STOREY;
WEBER, 1999).
3.1.1 Ontologia de fundamentação unificada
A Ontologia de Fundamentação Unificada (Unified Foundational Ontology - UFO)
(GUIZZARDI e WAGNER, 2004) é resultado da combinação da GFO (HERRE et. al. 2006)
e da DOLCE (MASOLO et. al., 2003), representando assim, uma síntese de ontologias de
fundamentação. Foi criada na tentativa de tentar suprir as limitações de captura de conceitos
básicos de linguagens de modelagem conceitual de outras ontologias de fundamentação,
aproveitando as características positivas e sanando as limitações detectadas (GUIZZARDI;
WAGNER, 2004).
A UFO foi proposta inicialmente em por Guizzardi (2005) e é dividida em três
camadas: UFO-A, que define o núcleo ontológico de indivíduos duradouros (endurants);
UFO-B, que define um incremento da UFO-A incluindo os termos relacionados a processos
(perdurants); UFO-C, que define termos relacionados às esferas sociais incluindo aspectos
linguísticos, construída sobre as partes A e B. O escopo deste trabalho se limita, neste
momento, ao estudo da UFO-A, a partir da qual foi proposta a linguagem de modelagem
OntoUML. Esta linguagem integra a UFO-A e o Meta-Object Facility (MOF) da UML 2.0
(OMG, 2012), que é reparado para garantir um isomorfismo em seu mapeamento para a
estrutura definida pela ontologia. Este trabalho limita-se também ao mapeamento das
entidades e relações definidas pela UFO consideradas como mais importantes para a
modelagem conceitual. O mapeamento completo da UFO pode ser obtido em Guizzardi
(2005).
O
3459
QUADRO 2 apresenta o mapeamento das principais categorias de entidades determinadas
pela UFO.
3460
QUADRO 2- Categorias de entidades da UFO
Categoria
Descrição
Quantity
Refere-se à quantidade de matéria. Ex.: água, açúcar, vinho, etc. A
subQuantidade de matéria sempre se refere ao mesmo tipo de matéria. Ex.:
Qualquer subQuantidade de água também é água.
Collective
Podem ter partes que não são do mesmo tipo, como árvore e floresta. Neste
caso, um conjunto que não é infinitamente divisível, ou seja, uma floresta não
pode ser composta apenas de uma árvore, mas um conjunto de árvores.
Kind
Representa uma substância cujas instâncias são complexos funcionais. Os
exemplos incluem as instâncias de coisas naturais (pessoa, cão, árvore) e de
artefatos (carro, televisão).
Subkind
Representa um subconjunto do tipo Kind, ou seja, uma especialidade de Kind.
Ex.: Homem é um tipo específico de Pessoa.
FunctionalComplex
Os complexos são constituídos por peças que desempenham papéis múltiplos
no contexto de um conjunto. As partes de um complexo têm em comum o fato
de ter uma ligação funcional com o complexo todo.
Role
Representa um papel desempenhado por uma entidade do tipo Kind. Ex.:
Estudante é um papel de uma Pessoa.
Fonte: Guizzardi (2005).
O QUADRO 3 apresenta o mapeamento das principais categorias de relações
determinadas pela UFO.
QUADRO 3- Classificação de relações da UFO.
Categoria
Descrição
Generalization (is-a)
Relação de generalização/especialização entre Kind e Role;
entre Roles; entre Subkind e Role; entre Kind e Subkind
Formal Relation
Associação formal entre entidades do tipo Kind
ComponentOf
Relação meronímica entre FunctionComplex
MemberOf
Relação meronímica entre Collectives ou entre
FunctionComplex e Collectives
SubCollectionOf
Relação meronímica entre Collectives
SubQuantityOf
Relação meronímica entre Quantities
Fonte: Guizzardi (2005).
4 ROTEIRO PROPOSTO: ELABORAÇÃO DO MODELO CONCEITUAL
A presente seção descreve o roteiro para a modelagem conceitual, contemplando as
suas etapas, insumos e produtos (seção 4.1). Além disso, apresenta-se um estudo de caso para
avaliar a viabilidade da proposta por meio de uma necessidade de negócio real (Seção 4.2).
3461
4.1 Descrição das etapas
O roteiro proposto para elaboração do modelo conceitual de SI é baseado em
princípios ontológicos e organiza os procedimentos em quatro atividades principais. Para a
realização de cada atividade é necessário um ou mais artefatos que vão subsidiar a sua
execução, estes artefatos são chamados de entrada. Por sua vez, cada atividade produz um
resultado, que é chamado de saída. O QUADRO 4 apresenta a relação das entradas e saídas de
cada atividade proposta. Em seguida, cada subseção descreve uma atividade específica.
QUADRO 4 – Relação de entradas e saídas das atividades propostas
Entrada
Atividade
Identificação de termos e
fatos
Elaborar glossário do
domínio
Classificação dos termos
e fatos
Saída
Especificação
de
requisitos, Lista de termos e fatos
especificação de caso de uso
Lista de termos e fatos
Glossário
Lista de tipos de entidades e
relações, Glossário, Lista de termos
e fatos
Construção do diagrama Modelo semi-formal
conceitual
Lista de termos e fatos
classificados, Modelo semiformal
Diagrama Conceitual
Fonte: Elaborado pelos autores.
4.1.1 Identificação de termos e fatos do domínio
A atividade de identificação de termos e fatos do domínio consiste na transposição dos
conceitos e características observados no ambiente de domínio que se pretende modelar.
Entende-se como termos os conceitos que representam entes físicos ou entes que se pode
descrever por características. Os fatos se referem às ações que ocorrem no ambiente, que
denotam comportamento dos entes ou interligação entre entes. A seguir, sugerem-se algumas
técnicas para a seleção de termos e fatos candidatos. Para exemplificar considere a sentença a
seguir: O cliente folheia o catálogo e seleciona itens para adicionar na cesta de compras.
Seleção de termos candidatos: Seleção de palavras que tem função substantiva na
sentença (substantivos, verbos substantivados, expressões, etc). Normalmente, estas palavras
são determinadas por artigo, numeral ou pronome possessivo. Os atores do caso de uso
também são termos candidatos. Na sentença exemplo, correspondem as palavras destacadas
em negrito e itálico. Os termos geralmente são elementos que representam coisas tangíveis,
funções exercidas por pessoas ou coisas, eventos, ou interações.
Seleção de fatos candidatos: Seleção de verbos que designam ações que afetam os
termos, ou verbos que não designam ações, mas que servem para ligar o sujeito a seu
3462
predicado quando estes dois equivalem a termos. Os casos de uso também são fatos
candidatos. Na sentença exemplo, correspondem as palavras sublinhadas.
4.1.2 Elaborar glossário do domínio
Um glossário refere-se a uma organização de todas as palavras (termos e fatos) com
sua respectiva definição, importantes para o entendimento do negócio que esta sendo
modelado. Esta atividade consiste em definir cada um dos termos e fatos identificados na
atividade anterior e se necessário de novos termos e fatos que sejam importantes para a
compreensão do ambiente que esta sendo observado e modelado.
A obtenção dos conceitos ou definições dos termos e fatos do glossário pode ser pela
análise de documentação pertinente ao ambiente em questão, por meio de entrevistas ou
seções de brainstorm com especialistas no assunto. O importante a resaltar é que a definição
dada a um termo ou fato deve ser consensual entre os participantes do projeto e clientes. Para
orientar a elaboração das definições, sugere-se o entendimento da Teoria do Conceito de
Dahlberg (1978) e da Teoria da Terminologia Dahlberg (1983).
4.1.3 Classificação dos termos e fatos quanto às categorias de entidades e relacionamento
Esta atividade versa a classificar os termos e fatos segundo as categorias de entidades
e relacionamento que são propostas pela UFO (seção 3.1.1). A seguir são apresentadas
categorias propostas para este roteiro.
Classificação para termos: Determinar para cada termo identificado na primeira
atividade (seção 4.1.1) qual das categorias do QUADRO 5 o termo se refere.
QUADRO 5- Proposta de categorias de termos para modelagem conceitual
Categoria
Descrição
Quantidade
Coletivo
Coisa
Complexo Funcional
Papel
Quantitativo de matéria. Algo que possa ser dimensionado.
Algo que faz parte de um conjunto de elementos, não
necessariamente do mesmo tipo.
Algo que fornece um princípio de identidade para suas instâncias.
Representa uma espécie na sua forma mais primitiva.
Todo constituído de partes que desempenham múltiplos papéis.
Função específica desempenhada por uma entidade do tipo Coisa.
Fonte: Elaborado pelos autores.
Classificação para termos: Determinar para cada fato identificado na primeira
atividade
(seção
4.1.1)
qual
das
categorias
do
3463
QUADRO 6 o fato se refere.
3464
QUADRO 6- Proposta de categorias de fatos para modelagem conceitual
Categoria
É um/ É uma
Descrição
É uma relação de generalização que remete a uma hierarquia entre
termos onde os termos específicos possuem as mesmas características
do termo mais genérico e outras características específicas dele.
É Sub quantidade
É uma relação meronímica entre termos da categoria quantidade.
de
É Sub coleção de
É uma relação meronímica entre termos que são coletivos (plurais).
É uma relação meronímica entre termos complexos funcionais,
É Membro de
singulares ou coletivos, como parte de termos que são coletivos.
É Componente de É uma relação meronímica entre termos que são complexos funcionais.
Fonte: Elaborado pelos autores.
Documentação semi-formal de termos e fatos: Consiste em escrever sentenças em
linguagem natural utilizando os termos e fatos categorizados a partir da sua definição
semiformal com base ontológica. O QUADRO 7 apresenta a coluna da esquerda corresponde
à definição semiformal existente entre uma categoria de termo e uma categoria de fato. A
coluna da direita refere-se a um exemplo de escrita semiformal.
QUADRO 7 – Exemplo de documentação semi-formal
Definição semiformal
Papel é uma Coisa
Quantidade é sub quantidade
Quantidade
Coletivo é sub coleção de Coletivo
Papel é membro de Coleção
Coisa é componente de Coisa
Exemplo
Cliente é uma Pessoa
de 200 ml de água é sub quantidade de 1 litro de
água
Um conjunto de árvores é sub coleção de Uma
floresta
Um jogador é membro de Um Time
Coração é componente de Pessoa
Fonte: Elaborado pelos autores.
4.1.4 Construção do diagrama conceitual
O diagrama conceitual é uma representação visual estrutura por uma abordagem de
modelagem conceitual. Conforme discutido na seção 2.1, duas abordagens são comunmente
usadas na engenharia de software, a abordagem Entidade-Relacionamento que origina os
diagramas E-R e a abordagem orientada a objeto que utiliza a linguagem UML para elaborar
os diagramas de classes. Na seção 3.1.1, é introduzido a abordagens ontológica e a
modelagem OntoUML como uma extensão da UML que tem suas classes e relacionamentos
baseados na ontologia UFO-A que também produz um diagrama de classe.
Para a construção do diagrama conceitual, optou-se pela abordagem UML, utilizando
como representação visual o diagrama de classes, porém sem determinar estereótipos de
3465
classes e relacionamentos. Em linhas gerais, as entidades ou classes equivalem aos termos
categorizados conforme QUADRO 5 e os relacionamentos são os fatos categorizados
conforme
3466
QUADRO 6. A seguir são descritos os passos para a elaboração do diagrama conceitual.
Passo 1: Definição de Classes ou Entidades.
As entidades são os elementos ou termos que persistem ao tempo e espaço. Selecionar
os termos identificados e categorizados e criar uma classes no diagrama para cada um dos
termos. As classes são representadas no diagrama como retângulos.
Observe que alguns termos que foram identificados na atividade da seção 4.1.1 podem
não ter sido categorizados, porém, estes termos podem representar características ou
propriedades de termos categorizados, também conhecidos como os atributos das entidades.
Passo 2: Definição de relacionamentos associativos.
Os relacionamentos associativos equivalem aos fatos que denotam as seguintes
categorias: É Sub quantidade de, É Sub coleção de, É Membro de, É Componente de. Estes
relacionamentos são representados no diagrama de classe como associações, agregações ou
composições.
Passo 3: Definição de relacionamentos hierárquicos.
Os relacionamentos hierárquicos equivalem aos fatos que denotam a categorias “É
um/é uma”, e são representados no diagrama de classe como herança.
Passo 4: Definir a multiplicidade entre associações.
A multiplicidade de uma associação refere-se ao número de instâncias da classe de
uma das extremidades da associação em relação a classe da outra extremidade. Pode-se
indicar o número mínimo e máximo das instancias.
4.2 Estudo de caso: gestão da estrutura administrativa estadual
O objetivo do estudo de caso foi avaliar a viabilidade do roteiro proposto, aplicando-o
a um requisito real de SI. No estudo de caso foi utilizado um cenário de negócio real da
administração pública do Estado de MG. A seção 4.2.1 apresenta uma parte da especificação
de requisitos do cenário “Gerir estrutura administrativa estadual”. Cada uma das seções
seguintes (4.2.2 à 4.2.5) equivale ao resultado da realização de uma das atividades propostas
no roteiro da seção 4.1.
4.2.1 Especificação de requisitos
A FIGURA 6 equivale à parte da especificação de requisitos do cenário de negócio da
gestão da estrutura organizacional da Administração Pública.
FIGURA 6 - Especificação de requisitos do estudo de caso
3467
Fonte: Elaborado pelos autores.
4.2.2 Identificação de termos e fatos do domínio
No texto de especificação de requisitos (FIGURA 6) os termos identificados
correspondem aos substantivos e verbos substantivados e foram marcados como negrito e
itálico, os fatos correspondem aos verbos sublinhados.
4.2.3 Elaborar glossário do domínio
Dentre as experiências obtidas ao longo da pesquisa, cabe destacar a discussão com a
equipe acerca das definições dadas a cada termo ou fato identificado. A FIGURA 7 demonstra
um extrato do glossário criado nesta atividade, ressalta-se que não foi apresentado o artefato
como um todo em função da limitação de espaço para o artigo.
FIGURA 7 - Extrato do glossário do estudo de caso
Fonte: Elaborado pelos autores.
3468
4.2.4 Classificação dos termos e fatos quanto às categorias de entidades e relacionamento
Classificação de termos: O termos foram classificados de acordo com a categoria e
organizados no QUADRO 8.
QUADRO 8- Categorização dos termos do estudo de caso
Categoria de
Termo
Quantidade
Termos do Estudo de Caso
Nenhum termo identificado
Administração Pública, Administração Pública Direta, Administração Pública
Indireta
Órgãos, Entidades, Governadoria, Vice-governadoria, Secretarias de Estado,
Órgãos Autônomos, Autarquia, Fundação Pública, Empresa Pública,
Sociedade de Economia Mista
Coletivo
Coisa
Complexo
Funcional
Papel
Nenhum termo identificado
Unidade Administrativa
Fonte: Elaborado pelos autores.
Classificação de fatos: Os fatos categorizados foram organizados no QUADRO 9.
QUADRO 9- Categorização dos fatos do estudo de caso
Categoria de Fato
Fatos do Estudo de Caso
É um/ É uma
É Sub quantidade de
É Sub coleção de
É Membro de
É Componente de
É, são
Faz parte
É formada
Fonte: Elaborado pelos autores.
Documentação semi-formal de termos e fatos: Um extrato da documentação
semiformal
é
apresentado
no
3469
QUADRO 10.
3470
QUADRO 10 – Exemplo de documentação semi-formal
Definição semiformal
Coisa é uma Coisa
Exemplo
Governadoria é um órgão.
Autarquia é uma Entidade.
Coletivo é sub coleção de
Coletivo
Administração Pública Direta é sub coleção de
Administração Pública
Administração Pública Indireta é sub coleção de
Administração Pública
Coisa é membro de Coleção
Órgão é membro de Administração Pública Direta
Entidade é membro de Administração Pública Indireta
Fonte: Elaborado pelos autores.
4.2.5 construção do diagrama conceitual
A FIGURA 8 refere-se ao diagrama conceitual baseado no extrato da documentação
semiformal apresentado.
FIGURA 8 - Diagrama conceitual do estudo de caso
Fonte: Elaborado pelos autores.
5 CONSIDERAÇÕES FINAIS
Este artigo discutiu a aplicação de princípios ontológicos à modelagem conceitual de
sistemas de informação e teve como objetivo apresentar a proposta de um roteiro que possa
orientar a atividade de modelagem com base na ontologia, possibilitando a geração de
modelos semanticamente bem definidos. O roteiro foi elaborado com base nos princípios
ontológicos extraídos da UFO e a partir das categorias de entidades e relações definidas em
sua especificação. As premissas sobre a atividade de modelagem conceitual encontradas na
3471
literatura também orientaram a proposta. Ao final, foi realizado um estudo de caso sobre o
domínio da Administração Pública Estadual de Minas Gerais para a verificação de viabilidade
do roteiro proposto.
Através do estudo de caso realizado pode-se concluir que o roteiro proposto é viável
de ser aplicado à modelagem conceitual para diversos domínios de informação. Conclui-se
também que a proposta é caracterizada como uma forma “leve” de uso de ontologias para
pessoas que não estão ambientadas com os seus conceitos e ainda assim possibilita diversos
benefícios para o desenvolvimento de um sistema de informação, tais como melhoria da
interoperabilidade entre sistemas, a diminuição de ambiguidades em modelos e a melhoria dos
processos comunicacionais.
A proposta aqui apresentada pode ser vista como uma oportunidade para promover a
aplicação prática de ontologias no âmbito da Ciência da Computação, a qual se percebe ainda
pouco explorada e também como oportunidade de esclarecimento da abordagem de
modelagem conceitual de sistemas de informação para os profissionais da Ciência da
Informação. Buscou-se contribuir para a interdisciplinaridade de saberes e aproximação das
áreas de Ciência da Informação e Ciência da Computação, a partir do estudo de um problema
real de interesse acadêmico e gerencial na tecnologia da informação.
Por fim, podem ser pontuadas algumas oportunidades de trabalhos futuros, como:
incremento de outras categorias de entidades e relações especificadas pela UFO para um
roteiro mais completo; elaboração de novas versões do roteiro para outras ontologias de
fundamentação aplicáveis à modelagem conceitual; aplicação do roteiro proposto para a
modelagem de outros domínios de informação; validação do roteiro com profissionais que
atuam na prática de modelagem conceitual.
REFERÊNCIAS
ABRIAL, J. R. Data semantics. In: J.W. Klimbie & K.L. Koffeman (Eds.). Proceedings of
the IFIP Working Conference Data Base Management (p. 1–60). Amsterdam: NorthHolland, 1974.
BENEVIDES, A. B.; GUIZZARDI, G. A model-based tool for conceptual modeling and
domain ontology engineering in OntoUML. In FILIPE, J.; CORDEIRO, J. (Ed.). ICEIS.
Heidelberg: Springer, 2009. Lecture Notes in Business Information Processing. vol. 24, p.
528–538. ISBN 978-3-642-01346-1. Disponível em:
<http://www.inf.ufes.br/~gguizzardi/ICEIS_2009.pdf> Acesso em: 10 fev. 2013.
BOOCH, G. Object-oriented analysis and design with applications, 2 nd ed. Redwood:
Benjamin Cummings, 1993.
3472
BORST, W. N. Construction of engineering ontologies; PhD Thesis (1997). Disponível em:
<http://www.ub.utwente.nl/webdocs/inf/1/t0000004.pdf>. Acesso em: 26 Jan 2013.
BOSAK, R., et al. An information algebra: phase 1 report - language structure group of
the CODASYL development committee. Communications of the ACM, New York, v. 5, n.
4, p. 190-204, Apr. 1962.
CAMPOS, M. L. A. A organização de unidades do conhecimento em hiperdocumentos: o
modelo conceitual como um espaço comunicacional para a realização da auditoria. 2001. 198
p. Tese (Doutorado em Ciência da Informação) – Departamento de Ensino e Pesquisa do
IBICT – Instituto Brasileiro de Informação em Ciência e Tecnologia, Universidade Federal do
Rio de Janeiro, Rio de Janeiro, 2001.
CAPURRO, R. What is information science for? A philosophical reflection. In: Vakkari,
Perti, Cronin, Blaise. Conceptions of library and information science. Tempere, Taylor
Graham, p. 82-93, 1991.
CHEN, P. The entity-relationship model: towards a unified view of data. ACM Transactions
on Database Systems, 1(1), p. 9–36, 1976.
COUGO, P. S. Modelagem Conceitual e Projeto de Bancos de Dados. Campus, 1997.
DAHLBERG, Ingetraut. Teoria do conceito. Ciência da informação, v. 7, n. 2, 1978.
DAHLBERG, Ingetraut. Terminological definitions: characteristics and demands. In:
Problèmes de la définition et de la synonymie en terminologie. Québec, GIRSTERM,
1983. p. 13-51.
EVERMANN, J. Thinking Ontologically: Conceptual vs. Design Models in UML. Business
Systems Analysis with Ontologies. Idea Group, p. 82-104, 2005.
FARRADANE, J. E. L. Relational Indexing: part I. Journal of information science, n.1, p.
267-276, 1980a.
FONSECA, F. The double role of ontologies in information science research. Journal of the
American Society for Information Science and Technology, v. 58, n. 6, p. 786-793, 2007.
FRIGG, R. Models in Science. Disponível em: <http://plato.stanford.edu/entries/modelsscience/>. Acesso em: 26 Jan 2012.
GRENON P., SMITH B., GOLDBERG L. Biodynamic ontology: Applying BFO in the
Biomedical Domain, in Pisanelli DM (ed). Ontologies in Medicine. Proceedings of the
Workshop on Medical Ontologies, Rome. October 2003. IOS Press, Studies in Health
Technology and Informatics, vol 102, p. 20-38, 2004.
GRUBER, T. What is an ontology? (1993). Disponível em: <http://wwwksl.
stanford.edu/kst/what- is-an-ontology.html>. Acesso em: 26 Jan 2012.
GUARINO, N. Formal ontology and information systems. (1998). Disponível em:
<http://citeseer.ist.psu.edu/guarino98formal.html>. Acesso em: 15 Dez 2011.
GUIZZARDI, G. Ontological Foundations for Structural Conceptual Models. Universal
Press, The Netherlands, 2005.
3473
GUIZZARDI, G., FALBO, R.A., GUIZZARDI, R.S.S. A importância de Ontologias de
Fundamentação para a Engenharia de Ontologias de Domínio: o caso do domínio de
Processos de Software. Revista IEEE América Latina, v.6, p. 244-251, 2008.
GUIZZARDI, G; WAGNER, G. A Unified Foundational Ontology and Some Applications of
it in Business Modeling. In: Proceedings of the Enterprise Modelling and Ontologies for
Interoperability workshop, 2004.
HERRE, H.; HELLER, B.; BUREK, P.; HOEHNDORF, R.; LOEBE, F.; MICHALEK, H..
General Formal Ontology (GFO): A Foundational Ontology Integrating Objects and
Processes. Part I: Basic Principles. Research Group Ontologies in Medicine (Onto-Med),
University of Leipzig, 2006.
JACOBSON, I., CHRISTERSON, M., JONSSON, P., & OVERGAARD, G. Object-oriented
software engineering: A use case driven approach. Boston: Addison-Wesley, 1992.
JARDINE, D. A. The ANSI/SPARC DBMS model. Proceedings of the second
SHAREWorking Conference on Database Management Systems. Amsterdam: North Holland,
1976.
KRUCHTEN, P. The Rational Unified Process: An Introduction, Second Edition. AddisonWesley,Boston, 2001.
MASOLO, C.; BORGO, S.; GANGEMI, A.; GUARINO, N.; OLTRAMARI, A.;
SCHNEIDER, L. (2003) WonderWeb Library of Foundational Ontologies – Preliminary
Report. Disponível em:
<http://wonderweb.semanticweb.org/deliverables/documents/D17.pdf>. Acesso em: 26 jan
2012.
MENDONÇA, F.M.; ALMEIDA, M.B. Modelos e teorias para a representação: uma teoria
ontológica sobre o sangue humano. Anais do XIII Enancib. Rio de Janeiro, 2012.
OLIVEIRA, V.N.P. Uma investigação sobre a avaliação de modelagem conceitual
baseada em ontologias: estudo de caso de modelos para sistemas de informação
desenvolvidos na Universidade Federal de Minas Gerais. 2009. 177 p. Dissertação (Mestrado
em Ciência da Informação) – Escola de Ciência da Informação, Universidade Federal de
Minas Gerais, Belo Horizonte, 2009.
OMG - Object Management Group. Unified Modeling Language (UML), Infrastructure,
V2.1.2. Disponível em: <http://www.omg.org/docs/formal/07-11-04.pdf>. Acesso em: 26 jan
2012.
PADUA, W. D. Engenharia de software. Rio de Janeiro: LTC, 2001.
PRESSMAN, R. S. Engenharia de software. McGraw Hill Brasil, 2011.
RUMBAUGH, J., BLAHA, M., PREMERLANI, W., EDDY, F., & LORENSEN,W. Objectoriented modeling and design. NewYork: Prentice Hall, 1991.
SÁNCHEZ, D. M.; CAVERO, J. M., MARCOS, E. On models and ontologies. (2005).
Disponível em:
<http://kybele.escet.urjc.es/PHISE05/papers/sesionIV/SanchezCaveroMarcos.pdf>. Acesso
em: 10 Dez 2011.
3474
SMITH, B., WELTY C. A. Ontology: Towards a new synthesis. Formal Ontology in
Information Systems, ACM Press, 2001.
SOMMERVILLE, I . Engenharia de Software. 6a. edição, Addison-Wesley/Pearson, 2003.
SOWA, J. F. Ontology. (2000). Disponível em: <http://www.jfsowa.com/ontology/>. Acesso
em: 26 jan 2012.
Wand, Y.; Weber, R. Mario Bunge's ontology as a formal foundation for information systems
concepts. In: Studies on Mario Bunge's Treatise. p. 123-150. Amsterdam: Radopi, 1990.
WAND, Y; STOREY, V. C.; WEBER, R. An ontological analysis of the relationship
construct in conceptual modeling. ACM Transactions on Database Systems (TODS), v. 24,
n. 4, p. 494-528, 1999.
YOUNG JR, John W.; KENT, Henry K. An abstract formulation of data processing
problems. In: Preprints of papers presented at the 13th national meeting of the Association
for Computing Machinery. p. 1-4. ACM, 1958.
3475
SISTEMA PARA GERENCIAMETO E RECUPERAÇÃO DE INFORMAÇÃO
MANAGEMENT SYSTEM AND INFORMATION RETRIEVAL
Renata Maria Abrantes Baracho
Cátia Rodrigues Barbosa
Christiano Santos Benvindo Santo
Resumo: Atualmente, em diferentes áreas tanto o gerenciamento quanto a recuperação da
informação constituem um desafio. São comuns problemas de recuperação da informação
quando temos pessoas que dela necessitam em locais distantes de onde a mesma é mantida.
Essa pesquisa desenvolve um modelo e um protótipo de organização e recuperação de
informação referente a Objetos Arquitetônicos Edificados (OAE). Os sistemas de ambientes
informacionais turísticos, bibliotecários, arquivísticos, museológicos, patrimoniais, hoteleiros,
governamentais necessitam cada vez mais de sistema de informação eficiente na busca,
disseminação e recuperação da informação sobre objeto arquitetônico. No modelo proposto,
recursos tecnológicos foram utilizados para facilitar o acesso à informação, garantir sua
integridade e permitir que a mesma esteja disponível sempre que possível. Buscou-se facilitar
a gerência do produto permitindo que usuários sem grandes conhecimentos de informática
pudessem manter o conteúdo atualizado de acordo com as necessidades. O processo de
indexação é automático e a estrutura utilizada para seu armazenamento é a de índice invertido
em que para cada termo indexado existe uma lista de documentos onde o mesmo ocorre. O
modelo de recuperação é o vetorial sendo a ponderação dos termos realizada utilizando-se o
método tf-idf e os documentos recuperados são ordenados mediante cálculo de similaridade.
O modelo prevê a correção dos termos digitados pelo usuário no momento da consulta
buscando aumentar a eficácia da recuperação. Os resultados obtidos são refinados mediante a
utilização de filtros os quais ajudam o usuário a encontrar o que deseja de forma mais rápida e
direta. Outro ponto importante é o uso das coordenadas dos objetos arquitetônicos edificados
(OAE) de forma a localizá-los em um mapa, bem como permitir encontrar outros objetos
próximos a ele fazendo inferências a determinadas informações. Tem-se como resultado um
protótipo para recuperação e disponibilização de informações referentes aos OAE de forma
simples e direta.
Palavras-chave: Recuperação da informação. Arquitetura da informação. Gestão da
informação. Sistemas de informação. Organização da informação.
Abstract: In different areas knowledge the recovery and management of information is a
challenge. Problems are common with regard to recovery of information when we have
people who are in need in locations distant from where the same is maintained. In the
proposed model the technology was used to facilitate the access to information, to ensure their
integrity and allow it to be available whenever possible. We also sought to facilitate the
management of the product allowing users without extensive knowledge of information
technology could, without too much effort, keep the content updated in accordance with the
needs of the present or planned. The systems of informational environments tourist, librarians,
archival, museological, property, hotels, government increasingly need a system of efficient
information search and dissemination and retrieval of information about architectural object.
The indexing process adopted is automatic and the structure used for storage is the index
reversed where for each term indexed there is a list of documents where the same occurs. The
recovery model is the vector with the weighting of the terms using the method tf-idf and the
recovered documents are sorted by calculation of similarity. The model also provides for the
correction of the terms entered by the user at the time of consultation looking to increase the
3476
effectiveness of recovery. The results obtained can still be refined through the use of filters
which help the user to find what you want more quickly and directly. Another important point
of the research is the use of the co-ordinates of architectural objects built (EAO) in order to
locate them on a map, as well as find other objects close to it. In accordance with the above
placements we have as a result a prototype for recovery and availability of EAO so simple
and direct.
Keywords: Information retrieval. Information architecture. Information management.
Information systems. Organization of information.
1 INTRODUÇÃO
Em todas as áreas o gerenciamento e recuperação da informação são um desafio. Um
problema recorrente é como encontrar a informação mais adequada à necessidade do usuário.
Tendo isso em mente, buscou-se propor uma solução no âmbito da gestão dos Objetos
Arquitetônicos Edificados (OAE), termo utilizado na pesquisa para definir casas, igrejas,
palácios, palacetes, construções militares, mausoléus, edifícios dentre outras construções,
sendo selecionados aqueles que possuam alguma característica histórica ou artística que os
destaque.
OAE tombados possuem as características históricas e artísticas supracitadas. “Os
tombamentos são realizados com o intuito de preservar bens de valor histórico, cultural,
arquitetônico, ambiental e também de valor afetivo para a população, impedindo a destruição
e/ou descaracterização de tais bens.” (IPHAN). Suas informações despertam interesse nas
comunidades locais e, por vezes, até mesmo internacionais quando tratamos daqueles de
grande repercussão, o que justifica o corpus da pesquisa. A proposta é um modelo simples
para gerenciar e disseminar a informação acerca dos mesmos.
No Brasil, a gerência pelos bens tombados em âmbito nacional pertence ao Instituto do
Patrimônio Histórico e Artístico Nacional (IPHAN) e em âmbito estadual ao Instituto
Estadual do Patrimônio Histórico e Artístico (IEPHA). Internamente às organizações
supracitadas existem os arquivos referentes ao tombamento de cada bem os quais são ricos em
informação de qualidade. No caso do IEPHA, vemos a preocupação referente a essa
documentação no art. 11 da portaria nº 29, de 03 de Julho de 2012
O dossiê técnico, mencionado no inciso II do art. 10, deverá ser elaborado
por equipe técnica interdisciplinar especialmente formada em função da
categoria do bem e que deverá atuar em todas as etapas de pesquisa e
redação dos textos de acordo com a metodologia adotada pelo IEPHA/MG.
No entanto nem sempre é simples ter acesso a tal informação que em alguns casos
deve ser solicitada e, somente após um certo período, pode ser acessada uma vez que o pedido
é enviado a outra cidade, é copiado e enviado de volta. Em outros casos, a consulta é
permitida apenas presencialmente, o que dificulta o acesso de uma parcela publico.
3477
Existe informação acerca dos OAE na internet em maior ou menor grau de acordo com
a sua visibilidade. As iniciativas para sua divulgação costumam ser em nível local, onde cada
região busca valorizar as suas obras para aumentar a visibilidade. Nem todos os OAE
possuem informações disponibilizadas via web fazendo com que seja necessário ir
fisicamente ao local a procura das mesmas. Considera-se a potencialidade dos recursos
computacionais para por meio deles ampliar a disseminação da informação referentes a
objetos arquitetônicos. Faz-se um paralelo com o conceito de expor objetos de forma virtual
vencendo limitações de tempo e espaço. Essa situação pode ser exemplificada com o conceito
de museu uma vez que o público interessado deve ir até eles para conhecer suas peças, no
entanto a distância é por vezes impeditiva. De acordo com isso “A implantação do museu
virtual pode disponibilizar as principais edificações e objetos em âmbito mundial além de
reconstituir os espaços e os objetos para estudos avançados com uso de tecnologias”
(BARACHO; BARBOSA, 2011, p. 201).
A tecnologia vem para auxiliar nos processos de forma a permitir que os mesmos
tenham um maior alcance.
Não se pode compreender a atualidade, sem confrontar no dia a dia com a
importância crescente dos recursos informacionais nas suas várias
dimensões. As formas atuais de se produzir, transferir e usar informações,
associadas aos padrões tecnológicos cada vez mais sofisticados, traduzem e
provocam alterações significativas nos conceitos e práticas das organizações,
método de trabalho, parâmetro de disseminação e difusão (CASTRIOTA,
2007, p. 202)
Os dados da pesquisa apontam que diversos sites, que divulgam o patrimônio
arquitetônico permitem a busca a partir da navegação entre os itens, entretanto torna-se
necessária uma estratégia de busca que vise facilitar o processo permitindo que pessoas,
mesmo sem treinamento, consigam encontrar a informação que desejam. Procurando novas
soluções para a recuperação da informação dos OAE de forma mais eficiente, tem-se como
base conceitos de informação e serviços de informação. Para Tarapanoff (2006, p. 23), “O
Objeto da área é a informação e o trabalho com a informação, transformando-a em produtos e
serviços de utilidade (com valor agregado) para o cliente usuário”. Borges (2007), em seu
artigo, deu as seguintes ideias sobre o que poderia compor um serviço de informação:
Processo de auxílio ao usuário na busca de informação ou na satisfação de suas necessidades
informacionais, interface direta entre a informação e o usuário e como atividade destinada à
identificação, aquisição, processamento e transmissão de informação e ao seu fornecimento
em um serviço ou produto de informação. No mesmo artigo, a autora realiza a revisão de
alguns trabalhos citando o que seria, de acordo com os mesmos, essencial ao gerenciamento
3478
de um produto de informação: levantar as necessidades de informação dos usuários,
estabelecer fontes de informação relevantes, disseminar e divulgar os produtos de informação,
definir as tecnologias de informação apropriadas para os produtos e ter uma equipe de
profissionais de informação que tenham as competências necessárias para o gerenciamento
dos produtos de informação.
Levando em conta esses conceitos, a pesquisa tem o intuito de servir como modelo
para criação de um produto de informação, não somente para OAE, mas que também possa
ser utilizado em outros domínios.
No modelo proposto a tecnologia é utilizada para facilitar o acesso à informação,
garantir sua integridade e permitir que a mesma esteja sempre disponível. Também buscou-se
facilitar a gerência do produto permitindo que usuários sem grandes conhecimentos de
informática pudessem, sem muito esforço, manter o conteúdo atualizado de acordo com as
necessidades.
No intuito de facilitar a busca da informação para atender às necessidades do usuário,
o protótipo desenvolvido utilizou-se do modelo de busca vetorial e do cálculo de similaridade.
As respostas são ordenadas de acordo com a similaridade entre os documentos e a consulta.
Para utilização do modelo, a base deverá ser indexada seguindo o processo descrito na
pesquisa.
Outras técnicas utilizadas para facilitar o acesso à informação incluem um corretor
ortográfico na entrada da consulta do usuário, exibição de objetos fisicamente próximos ao
objeto procurado e formas para refinar a pesquisa através de filtros aplicados sobre os
documentos recuperados.
Para facilitar o gerenciamento do produto, foi proposto que o responsável pelo
conteúdo não tenha que criar as páginas web diretamente. Ao responsável é computada a
responsabilidade de alimentar e manter o sistema com informações pertinentes e atualizadas
sem que sejam necessários conhecimentos em linguagens para criação de websites. Desta
forma a única preocupação é com a gestão do conteúdo e não do produto em si.
A proposta é a criação de um modelo de gestão e disseminação de informação que se
utilize de tecnologias apropriadas para facilitar a gerência e a recuperação da informação
sobre Objetos Arquitetônicos Edificados e que possa ser aplicada também em outros domínios
com poucas alterações.
3479
2 FUNDAMENTAÇÃO TEÓRICA CONCEITUAL
De acordo com a conceituação apresentada os OAE se aproximam do conceito de
monumento, sendo:
A constituição federal brasileira de 1988, no seu artigo 216, dispõe sobre o Patrimônio
Cultural nos seguintes termos: constituem patrimônio cultural brasileiro os bens de natureza
material e imaterial, tomados individualmente ou em conjunto, portadores de referência à
identidade, à ação, à memória dos diferentes grupos formadores da sociedade brasileira, nos
quais se incluem: as formas de expressão; os modos de criar, fazer e viver; as criações
científicas, artísticas e tecnológicas; as obras, objetos, documentos, edificações e demais
espaços destinados às manifestações artístico-culturais; os conjuntos urbanos e sítios de valor
histórico, paisagístico, artístico, arqueológico, paleontológico, ecológico e científico.
Torna-se premente um estudo sobre a gestão da informação e em que medida a
arquitetura da informação contribui para uma eficaz disseminação e recuperação da
informação sobre os objetos arquitetônicos.
Quanto à gestão da informação Davenport (1998, p. 170) diz tratar-se de um conjunto
estruturado de atividades que incluem o modo como as empresas obtêm, distribuem e usam a
informação e o conhecimento.
Os sistemas de recuperação de informação (SRI) apresentam-se aptos a cumprir o
papel de disseminação dos objetos. Nesse contexto, os SRI são a interface entre uma coleção
de recursos de informação, em meio impresso ou não, e uma população de usuários.
(LANCASTER;WARNER, 1993, p.4-5).
Souza (2006, p. 163) afirma que os SRI trabalham com a organização e viabilização
do acesso aos itens de informação desempenhando as atividades de representação e
recuperação das informações e documentos de forma a satisfazer a necessidade dos usuários.
Para Hiemstra(2000, p. 2) os SRI devem possuir três características: a capacidade de receber
termos em linguagem natural sem a necessidade de operadores, ordenação dos resultados de
acordo com a relevância e permitir o refinamento dos resultados de forma a auxiliar o usuário.
A representação é parte importante nos sistemas de informação e reflete diretamente
na recuperação da informação. De acordo com Alvarenga (2003), podemos considerar como
representação primária aquela feita por autores a partir da observação dos fenômenos naturais
e sociais e representação secundária, que geralmente é utilizada nos sistemas de informação,
como pontos de acesso fundamentais na representação dos documentos para futura
recuperação.
3480
Como pontos de acesso aos documentos, os metadados são fundamentais para a
organização do sistema de informação. O termo surgiu em Dublin durante um simpósio, o
qual deu origem à iniciativa Dublin Core. Segundo Alvarenga (2001), pode ser conceituado
como “dado sobre dado”; dado que descreve, a essência, atributos e contexto de emergência
de um recurso (documento, fonte, etc.) e caracteriza suas relações, visando o acesso e o uso
potencial. Ainda segundo Alvarenga (2001), no novo contexto de produção, organização e
recuperação de objetos digitais, as metas de trabalho não se restringem à criação de
representações simbólicas dos objetos físicos constantes de um acervo, compreendem
estabelecimento dos denominados metadados(...) constituindo-se esses em chaves de acesso a
serviço dos usuários da internet.
Os metadados constituem a base da indexação e recuperação da informação. Nessa
pesquisa a indexação dos termos é realizada de forma automática por meio da extração destes
e a estrutura utilizada para armazenamento é a do índice invertido. “Um índice invertido é um
mecanismo orientado para a indexação de uma coleção de texto a fim de acelerar a tarefa de
busca.” (NAVARRO, 2013, p. 339). "Cada documento no sistema possui um identificador
único e a forma de encontrar uma palavra é por via dicionário, o qual é uma lista de palavras
que não se repetem e um apontador para a lista dos documentos onde os termos ocorrem."
(KOWALSKY; MAYBURY, 1945 p. 82). A FIGURA 1 apresenta essa representação.
Para realizar a indexação várias etapas devem ser seguidas para tratar o texto e dele
extrair os termos que irão compor o índice. A FIGURA 2 apresenta as etapas seguindo um
fluxo para terminar com a indexação do documento.
FIGURA 1 - Índice invertido
Fonte: Elaborado pelo autor
3481
FIGURA 2 - Processo de indexação
Fonte: Adaptado pelo autor
No pré-processamento, o texto é normalizado. No caso das páginas da internet, por
exemplo, as tags html são retiradas, a codificação do arquivo é verificada e normalizada para
permitir o correto tratamento de palavras acentuadas por exemplo.
A filtragem e quebra dos termos considera pontuação, dígitos, hifens e diferenciação
entre maiúsculas e minúsculas. Para cada um desses itens tem-se um problema peculiar.
Fox(1992) demonstra diversos problemas com os quais nos deparamos durante esta tarefa
como, por exemplo,quando separar palavras com hifens. Podemos ter o hífen utilizado para
unir palavras separadas em final de linha. Os dígitos podem fazer ou não diferença durante a
recuperação, não podemos, por exemplo, excluir o numeral 6 do termo B6 (vitamina). Dessa
forma vemos que a cada um dos aspectos apresentados cabe uma tratativa que geralmente
difere em relação ao objeto tratado pela base estudada. Após a filtragem para a indexação a
quebra do texto é realizada passando-se à próxima etapa.
As stopwords podem ser consideradas como palavras com frequência alta entre os
documentos. Lancaster (1993, p.232) cita como exemplo os artigos, preposições, conjunções e
assemelhados que estão presentes em grande parte dos documentos de qualquer base. E apesar
de sua retirada diminuir bastante o tamanho do índice facilitando sua manutenção diversas
máquinas de busca não o fazem. O Google é um exemplo, sabemos disso pois há diferença
em pesquisar por “os outros” ou apenas “outros”, sendo que no primeiro caso os resultados
mais pertinentes são relativos ao filme que leva esse nome.
Por fim é realizada a indexação dos termos que permanecerão após aplicados os filtros
do processo. Será necessário armazenar o número de vezes que o termo ocorre na base como
um todo e em cada documento da mesma. Caso se trabalhe com um índice completo também
será necessário armazenar a posição do termo no documento de forma a permitir a busca
levando em consideração a proximidade entre os termos.
Para permitir a recuperação e ordenação dos resultados, optou-se por utilizar o modelo
vetorial utilizando o tf-idf (Term Frequency-Inverse Document Frequency) como forma de
ponderar os termos.
De acordo com Souza (2006) “nesse modelo, os documentos são tratados como “sacos
de palavras” (bags of words) e são representados como vetores no espaço n-dimensional, no
3482
qual n é o total de termos índices”. Esse espaço, segundo Salton, Wong e Yang (1975, p.613)
consiste de documentos, que serão identificados por um ou mais termos de indexação sendo
que os termos podem ser ponderados de acordo com sua importância.
No modelo vetorial, a pesquisa é feita a partir de texto livre na interface de busca, sem
a utilização de conectores como na busca booleana (Manning, Raghavan, Schutze 2009,
p.107). Esse estilo, segundo os autores, é muito comum em sistemas web devido em parte a
facilidade no uso, bastando apenas que os usuários entrem com uma lista de palavras.
Quanto a ponderação dos termos, podemos dizer que existem diversos métodos que
podem ser utilizados, sendo um dos mais utilizados o tf-idf (Term Frequency * Inverse
Document Frequency).
A forma mais simples de ponderação é a tf que considera a freqüência do termo no
documento, ou seja, quanto maior o número de vezes que determinado termo aparecer em um
documento, maior será a relevância do documento para um usuário que pesquisar por aquele
termo. O problema de se utilizar apenas essa medida conforme descrito por Lancaster (1993,
p.232 – 233) está no fato de que “algumas palavras que ocorrem freqüentemente num
documento podem não ser bons discriminantes – que sirvam para diferenciar este documento
de outros da base de dados – porque também ocorrem com freqüência na base de dados como
um todo”.
Sendo assim, para complementar foi necessário encontrar um fator que
contrabalançasse o tf. O idf cumpre esse papel uma vez que varia inversamente ao número de
documento que contem determinado termo. Um fator idf típico pode ser calculado como
log(N/n), onde N é o número de documentos na coleção e n a freqüência do termo nesta
mesma coleção. (SALTON,BUCKLEY 1988, p.516). A freqüência com que uma palavra
ocorre na base de dados como um todo é ainda mais importante que a freqüência da palavra
nos documentos. (LANCASTER, 1993, p.233). Ainda de acordo com o autor as palavras que
aparecem pouco em uma coleção são boas discriminantes para um documento ou no máximo
um pequeno grupo, com isso é possível afirmar que podemos aumentar a precisão da
recuperação ao utilizar esse fator.
Os pesos tf e idf apresentam comportamento de lei de potência que se equilibram.
Valores altos de tf tendem a estar associados a baixos valores idf e vice-versa. Como
conseqüência os maiores valores de tf-idf são alcançados por valores de idf intermediários.
Assim tanto termos que aparecem com freqüência muito alta nos documentos, como as
stopwords, ou termos raros como palavras estrangeiras ou erros de digitação não ficarão no
3483
topo com o maior valor uma vez que não serão de grande valia para o ranqueamento, o que
comprova a eficácia do método.
Com o índice pronto o próximo passo é referente a busca onde o usuário poderá
realizar sua consulta utilizando linguagem natural e sem necessidade de conectores entre os
termos. Os que forem utilizados na pesquisa irão passar por um filtro como aqueles dos
documentos indexados. Os que forem utilizados receberão um peso e comporão o vetor da
consulta. Esse vetor será comparado com os vetores dos documentos presentes na base e o
documento que apresentar a menor distância entre seu vetor e o da consulta será o primeiro a
ser devolvido e o mais distante o último. Essa distância é medida pelo valor obtido a partir do
cálculo da similaridade entre os vetores, sendo realizado a partir da seguinte equação.
onde
e
Outro ponto importante da pesquisa é a geolocalização dos OAE bem como o cálculo
da distância entre eles. Para localizar um ponto na terra é necessário sabermos sua latitude e
longitude. Latitude é a distância ao Equador medida ao longo do meridiano de Greenwich.
Esta distância mede-se em graus, podendo variar entre 0º e 90º para Norte(N) ou para Sul(S).
Longitude é a distância ao meridiano de Greenwich medida ao longo do Equador. Esta
distância mede-se em graus, podendo variar entre 0º e 180º para Leste(E) ou para Oeste(W).
A FIGURA 3 ilustra o que foi explicado.
Ou seja, dada uma latitude e longitude é possível identificar qualquer ponto no
planeta.
3484
FIGURA 3 - Latitude e Longitude
Fonte: Laboratório de Cartografia da UFSM
Uma das formas existentes para o cálculo da distancia entre dois pontos é a partir da
fórmula de Haversine. Apesar desta fórmula considerar a terra como uma esfera perfeita a
aproximação do resultado é muito bom, sofrendo pequena degradação apenas em distancias
muito grandes.
Abaixo vemos a fórmula de Harversine
d é a distância entre dois pontos com latitude e longitude (Ø, ϑ) e r é o raio estimado
da terra tendo sido considerado como 6371 km.
3 DESENVOLVIMENTO
A pesquisa foi desenvolvida em etapas entre seleção de fontes, aquisição,
organização de informação e desenvolvimento do protótipo.
Segundo Sapiro (1993), uma escolha acertada das fontes de dados é crítica para a
coleta e a classificação das informações. A primeira fase da pesquisa foi o levantamento das
informações acerca dos OAE selecionados. Foi realizada nos institutos responsáveis pelas
informações e em publicações oficiais. A documentação que se encontrava em meio digital
foi copiada, e a que estava em papel foi fotografada para posterior pesquisa. Como os OAE
escolhidos estão em Belo Horizonte, mesma cidade em que se encontram os escritórios dos
institutos responsáveis pelas informações foi possível o acesso direto às mesmas. Somente
para alguns OAE como aqueles que fazem parte do complexo da Pampulha foi necessário
solicitar a documentação de outro escritório que não o local.
Além da documentação recolhida nos institutos foram tiradas fotografias de cada um
dos OAE estudados para fim de documentação de seu estado atual bem como para ilustração
3485
dos mesmos no protótipo desenvolvido. Para capturar as imagens foi utilizada uma câmera
Nikon D3100 na sua maior resolução e com o método automático ligado de forma a ter
sempre uma imagem de qualidade e com certo padrão entre si. Não foi utilizado nenhum tipo
de filtro ou efeito uma vez que apesar da imagem ser utilizada de forma a valorizar o objeto
frente aos usuários ela também será utilizada como documento arquitetônico. Vemos um
exemplo na FIGURA 4, a qual faz parte do acervo criado para a pesquisa.
FIGURA 4 - Instituto de Educação
Fonte: Foto tirada pelo próprio autor
Para as fotos adotou-se a licença da Creative Commons do tipo AtribuiçãoNãoComercial-CompartilhaIgual CC BY-NC-SA. Segundo o próprio site essa licença permite
que outros remixem, adaptem e criem a partir do seu trabalho para fins não comerciais, desde
que atribuam ao autor o devido crédito e que licenciem as novas criações sob termos
idênticos.
De posse da documentação coletada foram selecionadas as informações com o intuito
de demonstrar a funcionalidade do modelo e protótipo. As informações coletadas não foram
disponibilizadas na integra. “A variedade de informação deve ser administrada de modo que
as informações coletadas reflitam a complexidade do ambiente sem sobrecarregar os usuários
com excesso de informação” (CHOO 2006, p.419).
Os metadados principais utilizados foram baseados nas fichas do SICG M301 e M302.
SICG - Sistema Integrado de Conhecimento e Gestão, essa é uma iniciativa do IPHAN para
gerir informação acerca do patrimônio material cujo processo vem desde 2006. Até o
momento, o sistema era composto apenas de fichas em Word e Excel, contudo no inicio de
3486
2014 foi marcado o primeiro treinamento do sistema sendo que o mesmo pode ser visto, sem
os dados oficiais inseridos, em: http://portal.iphan.gov.br/sicg/pesquisarBem.
Com base nas fichas foram elencados os seguintes metadados para fazerem parte do
cadastro como informações principais a serem extraídas da documentação coletada.
Título: Nome oficial do Objeto Arquitetônico Edificado.
Título Alternativo: Outros nomes pelos quais o OAE seja reconhecido.
Descrição: Descrição histórica e ou arquitetônica acerca do objeto. Foi retirada dos
documentos coletados nos institutos e do livro de Bens tombados do IEPHA-MG.
Localização: UF / Município / Logradouro / Número / Complemento / Código Postal:
Os dados referentes ao estado e município foram cadastrados no sistema para que o usuário
realize apenas a escolha em uma lista. Os dados foram extraídos do site do IBGE para poder
compor a listagem no protótipo. As demais informações deverão ser informadas pelo usuário.
Coordenadas Geográficas: As coordenadas são consideradas no padrão
decimal, utilizando ponto ( . ). Exemplo: -19.865960, -43.962208, como as duas coordenadas
estão negativas significa que o local indicado fica ao sul do equador e a oeste de Greenwich.
Data construção: Data em que o objeto arquitetônico foi construído.
Uso Original: Qual foi a primeira utilização do bem. Como exemplo podemos citar o
Cassino da Pampulha
Uso Atual: Qual a utilização atual. Seguindo o exemplo anterior o Cassino hoje é
utilizado como Museu de Arte.
Tipologia: (Religiosa, civil, oficial, militar, industrial, outra)
Estilo Arquitetônico: O estilo de cada obra foi retirado da documentação, mas antes da
inserção cada estilo foi verificado em um thesauro de arquitetura e livro especifico acerca de
estilos arquitetônicos. Os estilos são inseridos sob demanda, ou seja, um estilo só é inserido
quando necessário. O thesauro utilizado foi o do getty o qual trata justamente de arquitetura.
Pessoas: Indicar as pessoas identificadas que trabalharam na construção do OEA, tais
como engenheiros, arquitetos, paisagistas e quaisquer outros que tiveram relação com a obra.
Algumas informações foram pré-cadastradas no sistema para facilitar o cadastro e evitar
duplicidades e erros no momento do cadastro. Dessa forma busca-se padronizar a informação
evitando o uso de nomes diferentes para o mesmo autor. Além de provocar dúvidas ao usuário
iria atrapalhar ao realizar um agrupamento por pessoas. Teríamos um agrupamento com
"Aleijadinho", por exemplo, e outro com "Antônio Francisco da Costa Lisboa" sendo que
deveria ser apenas um. Para esta pesquisa foi utilizado a própria documentação referente aos
tombamentos. Em alguns casos foi utilizado o serviço “Union List of Artists Names” o qual
3487
pode ser acessado em http://www.getty.edu/research/tools/vocabularies/ulan/. O serviço
permite a pesquisa pelo nome e retorna o nome preferencial e outras variações do mesmo. È
um thesaurus on-line muito útil para pesquisa, no mesmo site é possível encontrar ainda
informações referentes a material utilizado em construções bem como outras informações
referentes à arquitetura. O mesmo está em inglês e existe uma versão em espanhol, até o
momento parece que nenhuma parceria foi feita para realizar a tradução do mesmo para o
português.
Os dados necessários para o cadastro das imagens são:
Título: Título da obra, necessários para casos como o de complexos arquitetônicos.
Como exemplo, podemos citar o complexo da Pampulha o qual terá fotos de diversos objetos
tais como a Igreja de São Francisco de Assis e do Museu de Artes, nesse caso é necessário
identificar qual imagem pertence a qual objeto.
Autor Imagem: Quando possível identificar o autor de determinada imagem
Tipo da licença: Informar se a imagem pode ou não ser reproduzida e sobre quais
termos, todas as fotos que foram tiradas para a pesquisa poderão ser utilizadas por terceiros
desde que a fonte seja identificada.
Origem: Informar se a foto foi tirada para compor a documentação ou sua fonte.
Por referência a indexação. Esse passo será feito conforme descrito no referencial
teórico.
A FIGURA 5 apresenta uma tela do sistema com os metadados propostos de um dos
objetos arquitetônicos cadastrados.
Após a definição dos metadados e a indexação, a base está preparada para a
recuperação da informação. Para recuperar a informação desejada o usuário poderá entrar
com um texto em linguagem natural sem necessidade da utilização de termos específicos ou
prévios conhecimentos em lógica de conjuntos como acontece na busca booleana.
A consulta passa pelos mesmos processos dos documentos antes da indexação. A
diferença é que ao final destes os termos são verificados frente a um dicionário da língua
portuguesa o qual é incrementado com palavras presentes na base e que por ventura ainda não
fazem parte do mesmo. Isso pode ocorrer com nomes próprios por exemplo.
Caso o termo não possua uma ocorrência no dicionário, sofrerá mutações, procurando
encontrar outros para os quais sejam necessárias até duas alterações. Se com até duas
alterações, seja de inclusão, alteração ou exclusão de letras se consiga chegar a um exemplar
válido, este será considerado como sugestão. Ao final é retornado uma lista de palavras que
atendem ao requisito sendo que a escolhida é aquela com maior número de aparições na base
3488
de dados. Ao retornar o resultado será informado ao usuário quais termos foram utilizados
para evitar quaisquer enganos.
FIGURA 5 – Tela do Protótipo com os metadados referentes à Igreja da Pampulha
Fonte: Foto tirada pelo próprio autor
Com o intuito de aproximar o protótipo ao que foi descrito nas palavras de Hiemstra
durante o referencial, foi criada uma forma para o refinamento dos resultados por parte do
usuário. Eles podem ser refinados a partir de filtros pré definidos, que serão exibidos ao
3489
usuário e o ajudarão na tarefa de restringir os resultados facilitando assim no processo da
recuperação da informação de forma mais precisa e menos trabalhosa.
A estrutura dos documentos inseridos na base é normalizada para todos os OAE,
facilitando assim a identificação de características comuns entre os mesmos. Consideremos
uma coleção composta por diversos documentos que compartilham a mesma estrutura. Essa
estrutura além de título e descrição contem algumas características especificas, características
que são comuns a todos os documentos da base. Em alguns documentos o conteúdo dessas
características são semelhantes e em outros não, fazendo com que um filtro aplicado ao
resultado ajude o usuário a encontrar de forma mais rápida o que deseja.
Por exemplo, se o usuário digitar igreja, ele poderá, hipoteticamente, receber dois
resultados. Um referente à igreja de São Francisco de Assis e outra referente à igreja da Boa
Viagem. Os filtros então serão carregadas com informações alusivas a essas duas igrejas.
Sendo:
Cidade: Belo Horizonte (2)
Pessoa: Oscar Niemeyer (1), João Morandi (1)
Estilo: Moderno (1), Eclético (1)
No filtro Pessoa, teríamos mais resultados no caso real, aqui foi reduzido apenas como
efeito didático. Os números logo após o termo indicam em quantos documentos os termos
estão presentes. Seguindo o exemplo, os dois resultados pertencem a “Belo Horizonte” mas
apenas um tem o estilo Eclético e apenas em um consta que João Morandi trabalhou na obra.
Se o usuário selecionar qualquer um desses termos os resultados serão filtrados passando a
exibir apenas aquele OAE referente à Igreja da Boa Viagem.
Essa funcionalidade utiliza o conceito de interseção entre os conjuntos, sem que o
usuário precise ter domínio do mesmo. Dessa forma sempre que um usuário clicar em um
termo ele estará restringindo o resultado da consulta textual que ele efetuou. Ao digitar o
termo “igreja” e depois dos resultados visualizados selecionar o termo “João Morandi” no
filtro Pessoa é compatível a dizer que o mesmo quer ter acesso aos OAE referentes à igrejas
onde João Morandi tenha trabalhado.
O protótipo se baseia nas linguagens asp.net MVC e C# com banco de dados MySQL
e servidor IIS7. O asp.net é o padrão da Microsoft para o desenvolvimento de páginas web
enquanto que o c# é utilizado para o desenvolvimento de rotinas e regras de negócio. O banco
de dados MySQL foi escolhido por ser estável, prova são as diversas aplicações que utilizamno na web, e gratuito. IIS7 (Internet Information Services) é um servidor de web que pode
hospedar páginas, streaming, aplicativos web. Para que um site, por exemplo, funcione é
3490
necessário que o mesmo esteja hospedado em um servidor web, seja ele apache, IIS ou outro
qualquer.
Um dos pontos colocados como objetivo para o desenvolvimento do protótipo foi o
fato de que não deveria ser necessário conhecimento em desenvolvimento web por parte do
usuário. O que gerou um problema, devido à forma como os sites são desenvolvidos. Um web
site comum é composto por páginas as quais estão presentes no servidor web. O usuário faz
uma requisição ao servidor e esse por sua vez devolve uma página ou algum outro recurso
como resposta.
Aqui faz-se necessário entender o que é Uniform Resource Locator (url) ou como
também é chamado “endereço da página”, a url é o caminho que indica onde está o recurso
que
o
usuário
deseja.
Como
exemplo
de
url
considera-se:
HTTP://exemplo.com/software/windows.html. Se quebrarmos o nosso exemplo em partes
teremos:
HTTP – Protocolo de transferência de hipertexto
Exemplo.com – endereço do nosso site ou domínio. Podemos ter o site exemplo com a
extensão .com, .com.br, org, .edu. Mas não faz parte dessa pesquisa o aprofundamento nesse
ponto.
Software – iremos considerar nessa pesquisa que software é uma pasta em nosso
servidor e que essa pasta esta na raiz de nosso site exemplo. Dentro dela podemos ter diversas
páginas relacionadas com software.
Windows.html – essa seria a página com informações referentes a Windows. Dentro
da pasta software poderíamos ter diversas outras páginas que resultariam em endereços como
HTTP://exemplo.com/software/linux.html por exemplo.
Isso demonstra é que a estrutura dos sites se parecem com a estrutura de arquivos que
temos em nossas máquinas. Onde temos um diretório raiz com diversos outros diretórios ou
pastas dentro desse e em cada um diversos arquivos.
Para que o usuário não tenha que criar páginas e nem inserir arquivos diretamente no
servidor foi preciso encontrar uma forma para que o endereço não aponte diretamente para um
arquivo. Parte da solução foi dada com a utilização de rotas e páginas dinâmicas. Rota nesse
contexto é uma forma que nos possibilita mapear um endereço (uma url) para um
controlador/ação e qualquer parâmetro adicional bem como construir essa url.
No protótipo ao invés de um endereço mapear um arquivo ou diretório mapeia uma
ação e seus parâmetros. Considerando uma parte do exemplo anterior temos http (protocolo)://
exemplo.com (domínio) / software (controle / ação) o termo software deixa de representar um
3491
diretório e passa a ser um controlador que pode receber como parâmetro uma string por
exemplo, no exemplo esse parâmetro é Windows (agora sem o .html) pois não representa um
arquivo. A url ficou então http://exemplo.com/software/windows. Ao receber o parâmetro
"Windows" o controlador irá solicitar as informações referentes a esse software e receberá,
caso o mesmo exista na base de dados, as informações necessárias para preencher a página
que o usuário visualizará.
A FIGURA 5 mostra de forma simplificada o processo explicado. É feita uma
solicitação, é verificado a partir das definições de rotas qual o controlador/ação será chamado.
Esse controlador sabe quais as operações serão executadas e que informações devem ser
passadas para a camada de visão de forma a enviar uma resposta ao usuário.
FIGURA 6 - Modelo utilizado no protótipo (resumido)
Fonte: elaborado pelo autor
A visão retornada ao usuário é um modelo que será preenchido com as informações do
software que ele procura, ou com as informações do OAE que ele deseje visualizar.
As rotas são tratadas com cuidado, da mesma forma que ao mudar uma pasta de lugar,
ao alterar uma rota endereços antigos que o usuário considerava válidos deixarão de funcionar
tornando os usuários insatisfeitos.
Considera-se, para simplificar que o endereço do site seja http://pesquisa.com.br, o
endereço não é válido e não pretende-se adquirir esse domínio. Foi escolhido de forma
aleatória visando apenas facilitar o entendimento. Para esse domínio cria-se as rotas,
conforme TABELA 1.
3492
TABELA 1 - rotas do site
1
2
3
URL
http://pesquisa.com.br/
http://pesquisa.com.br/oae/<param>
http://pesquisa.com.br/cad/<param>
Descrição
Página inicial do protótipo com a tela de busca
“param” será o título do objeto arquitetônico
“param” será o cadastro a ser tratado
Fonte: Elaborado pelo autor
Um exemplo utilizando a rota 2 seria http://pesquisa.com.br/oae/palacetedantas assim
que o servidor web receber essa requisição ela será enviada para um controlador que
entendera “palacetedantas” como um parâmetro e realizará as tratativas necessárias para
devolver as informações necessárias para que um modelo seja preenchido e devolvido ao
usuário. E é ai que está a beleza, não existe amarração com arquivos e sim processos.
O padrão de arquitetura utilizado no sistema foi o MVC (Model-View-Controller).
Padrão consolidado e aceito no desenvolvimento de sistemas. Baseando o aplicativo nessa
arquitetura temos três componentes principais: modelo, visão e controle. Sendo que cada um é
responsável por determinadas tarefas sem a necessidade de conhecer como as demais são
executadas nos outros componentes. Apesar de parecer não é o mesmo paradigma do
desenvolvimento em camadas.
Os três componentes do MVC da seguinte forma:
Modelo: As classes que representam a regra de negócios e o acesso aos dados da base
de dados. Muitas vezes encapsula os dados que estão armazenados na base bem como a lógica
para manipulá-los.
Visão: É responsável por gerar a interface que será apresentada ao usuário. Isso é
realizado recebendo um objeto de modelo a partir do controle renderizando isso em html, ou
outro tipo de conteúdo, para ser apresentado ao usuário.
Controlador: Essa classe é responsável pelo relacionamento entre a visão e o modelo,
bem como responder às entradas do usuário. Além disso, a decisão quanto a rotas e chamadas
a visões para atender a demanda do usuário é realizada neste componente.
A idéia é facilitar a manutenção uma vez que cada um dos componentes é responsável
por uma tarefa. É mais fácil dividir essas tarefas de forma a serem tratadas de forma separada
por pessoas ou equipes diferentes dentro do projeto.
4 CONCLUSÃO
Com o desenvolvimento da pesquisa procurou-se atender aos objetivos de permitir o
acesso da informação ao maior número de usuários independentemente da distancia do OAE,
e isso foi realizado mediante a utilização de plataforma web.
3493
Outro ponto importante é a tentativa de desvincular a necessidade de um profissional
de tecnologia para a inserção de conteúdo na base. Dessa forma o usuário tem maior
independência para realizar essa tarefa. As informações entram no sistema mediante cadastro
simples e as páginas que são disponibilizadas ao usuários externos tem um suporte visual
mais elaborado sendo preenchidas a partir de um modelo com as informações disponibilizadas
no cadastro.
Buscou-se facilitar a recuperação da informação a partir de técnicas como correção
ortográfica dos termos da consulta baseando-se em dicionário da língua portuguesa e termos
presentes na base, refinamento da pesquisa a partir de filtros, ordenação dos resultados
baseando-se no cálculo de similaridades.
De acordo com as colocações acima temos como resultado um protótipo para
recuperação e disponibilização de objetos arquitetônicos edificados. Desenvolvido com
técnicas de representação e indexação para recuperação. Apresenta recursos de filtros e
facilidade de uso para melhorar o processo de mediação entre o usuário e o sistema.
Esses fatores são essenciais para ampla divulgação da informação, possibilitando de
amplo acesso e insumos para gestão da informação.
REFERÊNCIAS
ALVARENGA, Lidia. A Teoria do Conceito Revisitada em Conexão com Ontologias e
Metadados no Contexto das Bibliotecas Tradicionais e Digitais. DataGramaZero - Revista
de Ciência da Informação, v.2, n.6, dez/01. Disponível em:
<http://www.dgz.org.br/dez01/Art_05.htm>. Acessado em 27/08/2013.
ALVARENGA, Lídia. Representação do conhecimento na perspectiva da ciência da
informação em tempo e espaço digitais. Encontros Bibli: Revista Eletrônica de
Biblioteconomia e Ciência da Informação, Florianópolis, n. 15, 1º sem. 2003.
BARACHO, Renata Abrantes; BARBOSA, Cátia Rodrigues. O objeto museal em diferentes
contextos e mídias. Em Questão, Porto Alegre, v. 17, n. 2, p. 195-208, jul./dez. 2011.
BORGES, Mônica Erichsen Nassif. O essencial para a gestão de serviços e produtos de
informação. Revista Digital de Biblioteconomia e Ciência da Informação, Campinas, v.5,
n. 1, p. 115-128, jul/dez. 2007
BRASIL. Constituição (1988). Constituição da República Federativa do Brasil. Brasília,
DF, Senado, 1998.
CASTRIOTA, L. B. ; ANGELO, C. V. S. . Tecnologia digital e acessibilidade: a Rede Latinoamericana de Acervos de Arquitetura e Urbanismo (RELARQ). In: XI Congreso de Sociedade
Iberoamericana de Gráfica Digital (SIGraDi), 2007, Mexico. Anais do XI Congreso de
Sociedade Iberoamericana de Gráfica Digital (SIGraDi). Mexico : SIGRADI / Universidad La
Salle, 2007. p. 200-204. acessado em 05/2013 em: site
3494
CHOO, Chun Wei. A organização do conhecimento: como as organizações usam a
informação para criar significado, construir conhecimento e tomar decisões. tradução
Eliana Rocha. 2. ed - São Paulo: Editora Senac São Paulo, 2006.
DAVENPORT, Thomas H. Ecologia da informação: por que só a tecnologia não basta
para o sucesso na era da informação. Laurence Prusak; tradução Bernadette Siqueira
Abrão. — São Paulo : Futura, 1998.
FOX, Christopher. Lexical analysis and stoplists. In Information Retrieval: Data Structures
& Algorithms. edited by William B. Frakes and Ricardo Baeza-Yates. Prentice Hall; 1992.
Grafisch Centrum Twente, 2000. Originalmente apresentada como tese de doutorado, Centre
for Telematics and Information Technology, 2000.
HIEMSTRA, Djoerd. Using Language Models for Information Retrieval. Enschede:
KOWALSKI, Gerald J. MAYBURY, Mark T. Information Storage and Retrieval Systems.
Springer 2000.
LANCASTER, F. Wilfred. WARNER, Amy J. Information Retrieval Today. Information
Resources Press. United States of America. 1993.
MANING, Christopher D., RAGHAVAN, Prabakar; SHUTZE, Hinrich. Introduction to
Information Retrieval. Cambridge University Press 2009.
NAVARRO, Gonzalo. Indexação e Busca. In: BAEZA-YATES, Ricardo; RIBEIRO-NETO,
Berthier. Recuperação de Informação: Conceitos e tecnologia das máquinas de busca. 2 ed.
Porto Alegre : Bookman, 2013.
SALTON, G. WONG, A. YANG,C.S. A vector space for automatic indexing.
Communications of the ACM, v. 18, n. 11, november 1975.
SALTON, Gerald. BUCKLEY, Christopher. Term-weighting approaches in automatic text
retrieval. Information Processing & Management, v. 24, n. 5, 1988 Printed in Great Britain.
SOUZA, Renato Rocha. Sistemas de recuperação de informações e mecanismos de busca na
Web: panorama atual e tendências. Perspectivas em Ciência da Informação, Belo
Horizonte, v. 11, n. 2, p. 161-173, maio/ago. 2006.
TARAPANOFF, Kira (Org.). Inteligência, Informação e Conhecimento. Brasília: IBICT,
UNESCO, 2006.
3495
BIG DATA: UMA INVESTIGAÇÃO COM USO DE DADOS ABERTOS SOBRE
ACIDENTES DE TRABALHO
BIG DATA: AN INVESTIGATION WITH OPEN DATA ON ACCIDENTS AT WORK
Cláudio José Silva Ribeiro
Resumo: O tema Big Data tem despertado interesse nos profissionais que trabalham com a
Gestão da Informação, pois trata de insumo essencial no processo de criação do
conhecimento. Este relato apresenta o tema e explora os fundamentos que auxiliam no
entendimento da abordagem de Big Data. Discute a explosão informacional e a avalanche de
dados, chegando aos elementos que compõem o tema. Aborda os 4 Vs do Big Data e as fases
de Discovery, Data Preparation, Model Planning e Analytics. O processo de pesquisa se
baseia em um estudo exploratório desenvolvido por meio de pesquisa bibliográfica com
análise documental. O marco empírico para análise dos elementos do domínio foi baseado no
site de Dados Abertos da Dataprev, bem como com outras informações disponíveis em redes
sociais e blogs especializados. Apresenta os resultados preliminares sobre estudos nas fases
iniciais de projetos de Big Data, de forma a viabilizar alternativas para representação e
disseminação dos grandes volumes de dados presentes na Internet. Ao final, apresenta alguns
aspectos ligados ao perfil do profissional que está participando destes projetos.
Palavras-chave: Big Data. Gestão da Informação. Análise de Dados. Dados Abertos.
Profissional de Informação
Abstract: The theme of Big Data has been rising interest in professionals working with
information management as it's an important factor for knowledge creation process. This
article presents this theme and explores the fundamentals which help in understanding Big
Data approach. Also discusses the information explosion and data deluge, reaching elements
that make up the theme. Moreover, it covers the 4 Vs of Big Data and the phases of
Discovery, Data Preparation, Model Planning and Analytics. The research process uses a
exploratory study with literature search and documental review. The empirical milestone for
analysis of elements of the domain was based on the Open Data Dataprev website as well as
other information available on social networks and specialized blogs. The paper presents
preliminary results about studies in early stages of Big Data projects in order to make possible
alternatives for the representation and distribution of huge volumes of data present on the
Internet. At it’s end, this paper points out some aspects related to the professional who takes
part in these projects.
Keywords: Big Data. Information Management. Data Analysis. Open Data. Information
Professional.
1 INTRODUÇÃO
O uso de dados e informação sempre foi objeto de estudos para a área de Ciência da
Informação. Desde a década de 1940, quando, principalmente em decorrência da 2 a. Guerra
Mundial, novas pesquisas que foram impulsionadas pela indústria bélica geraram o “Caos
Documental” ou ainda a “Explosão Informacional” (RIBEIRO, 2008), os profissionais
envolvidos com pesquisas na área de CI sempre estiveram presentes em trabalhos ligados à
temática (SARACEVIC, 1996a).
3496
Aliado a isso, percebe-se um outro deslocamento nos estudos sobre Gestão de Dados e
Informação. O uso cada vez maior de dispositivos móveis tem contribuído para incrementar a
“avalanche de dados”, uma vez que celulares e tablets que atuam como geradores e
consumidores de dados e informação estão presentes no nosso cotidiano. Esse movimento tem
sido conhecido como Big Data e vem despertando o interesse por todas as pessoas que tem
algum envolvimento com atividades para Gestão da Informação 110.
Outro tema que tem motivado debates e investigações é a possibilidade de fazer
análise deste vasto volume de dados. Um exemplo recente sobre o uso dessa abordagem vem
do esporte. Em reportagem veiculada por meios de comunicação sobre a seleção da
Alemanha, vencedora da Copa do Mundo no Brasil, houve registro sobre a utilização de
solução que permitisse a análise de dados sobre jogos, jogadores, táticas de jogo e a
possibilidade de avaliar comentários especializados. Ou seja, o uso de dados e informação em
quantidade como forma de melhorar o desempenho do time alemão (SAP, 2014).
Pode-se afirmar que não está se propondo algo totalmente novo com o tema Big Data,
pois o uso de informação para a obtenção de resultados não é uma coisa nova. As abordagens
exploradas nos últimos anos pela Ciência da Informação vêm contemplando diferentes visões
em Sistemas de Apoio à Decisão (EIS), Armazéns de Dados (Data Warehouses e Data Marts),
Desempenho dos Negócios (Business Intelligence), soluções para Mineração de Dados (Data
Mining), além de informação para planejamento estratégico, gestão de recursos
informacionais e ativos de informação na Web. Fazendo uma análise preliminar destes
movimentos, é licito supor que o profissional de informação deve refletir um pouco sobre
como poderá se envolver nas discussões sobre o tema Big Data (RIBEIRO, 2014).
Dentro deste contexto, este relato apresenta alguns resultados preliminares sobre o
envolvimento de profissionais da informação nas fases iniciais de projetos de Big Data, de
forma a viabilizar alternativas para representação e disseminação dos grandes volumes de
dados presentes na Internet.
2 A AVALANCHE DE DADOS COMO CATALISADOR DE BIG DATA
O tratamento e uso da informação pela sociedade têm se modificado nas últimas
décadas como consequência do surgimento de novos modelos sociais, econômicos ou
tecnológicos. A crescente utilização de meios de comunicação com alto grau de mobilidade e
o uso cada vez maior da Internet, definem outros espaços e demarcam novas fronteiras para a
110
O relato aqui apresentado é parte do projeto de pesquisa do autor e está apoiada no Referencial
Teórico desenvolvido em (RIBEIRO, 2014)
3497
sociedade contemporânea (RIBEIRO, 2008). Ficou evidenciado o estado de insatisfação dos
usuários nas pesquisas desenvolvidas por Wurman (2005) - onde reafirmou-se um sentimento
de “Ansiedade da Informação” – e por Gopinath e Das (1997) – onde estabeleceu-se uma
percepção sobre a “Explosão Informacional”.
Heath e Bizer (2011) reforçam essa ideia quando observam que na atualidade estamos
cercados por uma grande quantidade de dados e informação. São registros sobre o cotidiano –
desempenho da educação, produção de bens e serviços, investimentos e impostos
governamentais, estatísticas sobre a economia e dados sobre o consumo - que nos auxiliam a
tomar decisões e gerar conhecimento.
Mas afinal, o que está impulsionando esta avalanche?
Alvin Tofler, em seu livro publicado em 1984 sobre as mudanças do comportamento
da sociedade pós-moderna, cunhou o termo prosumer111 (TOFLER, 1984), para definir o
novo perfil de interação da sociedade de consumo. É possível afirmar que com o avanço do
uso de dispositivos móveis, esta forma de interação começou a se concretizar. O uso de
sensores industriais e biomédicos, fotos, vídeos, e-mails, redes sociais, além do comércio
eletrônico, interações via call centers, dados públicos imagens médicas e outros dados
científicos, câmeras para monitoramento, medidores inteligentes, GPS, aplicativos para troca
de mensagens, aplicações que nos ajudam a pegar táxis, outras que nos ajudam na locomoção
urbana evitando engarrafamentos, ou ainda no monitoramento de ônibus e até de aviões, são
exemplos claros dos efeitos desta avalanche (RIBEIRO, 2014).
Complementarmente, é possível perceber também uma mudança no funcionamento
das aplicações de comércio eletrônico. A ampliação do uso de sistemas de recomendação112
na Web, permite que sejam indicados dezenas de opções de compras aos clientes usuários
destes serviços. Aliado a isto, tem-se que a previsão da expansão das fontes de dados é de
aproximadamente 50 vezes nos próximos 10 anos. Segundo previsões apresentadas pela
empresa EMC, instituição especializada em armazenamento de dados, o crescimento de dados
111
112
Neologismo criado por Alvin Tofler que representa a união dos conceitos de produtor e
consumidor
Em um sistema de recomendação, parte-se de perfis de usuários específicos, que podem ser
agrupados e relacionados a outros perfis que, quando incrementados com seus respectivos
históricos de compras e com os dados originados pelas redes sociais, possibilitam a descoberta de
produtos a serem ofertados (FLORISSI, 2014).
3498
e informações digitais no mercado brasileiro crescerá de 212 Exabytes113 em 2014,
alcançando a marca de 1.6 Zettabytes (1.600 Exabytes) em 2020 (EMC, 2014).
Fruto deste cenário, rico em volume e variedade de fontes, tem surgido uma disciplina
que, apesar de não ser apenas um tema essencialmente tecnológico, vem sendo impulsionado
pelos projetos de tecnologia: a vertente de Big Data (RIBEIRO, 2014).
3 REFERENCIAL TEÓRICO
Fox e Hendler (2011) também anteciparam que estamos vivendo com uma nova
abordagem chamada de “Big Data”. Esta abordagem está surgindo em decorrência da
geração, e, consequentemente, da necessidade da coleta de grande volume de dados com
formatos variados. Ademais, estes dados ainda precisam ser geridos e, neste sentido, Fox e
Hendler continuam e observam que a gestão destes recursos possibilitará a resolução de
problemas que nem sabíamos que existiam. No entanto, vale ressaltar que não podemos
prescindir de ferramentas, pois a capacidade do ser humano de analisar dados e informações
com múltiplas facetas é limitada. Logo, são necessários alguns instrumentos que nos auxiliem
a executar estas tarefas.
3.1 A noção de big data
A necessidade de vencer o desafio, reunindo e analisando fontes de diversas naturezas,
deu origem a pesquisas que nos levaram ao tema “Big Data”. Estas pesquisas foram
desenhadas a partir de três aspectos iniciais (DAVENPORT, 2014):
A múltipla natureza dos dados – aspecto relacionado com as diferentes fontes
disponíveis.
O uso de processamento em nuvem – aspecto relacionado ao uso ilimitado de recursos
computacionais e com processamento em larga escala, com a possibilidade de redução de
custos (economia de escala – é o aspecto econômico-financeiro).
Uso de tecnologias específicas, tais como processamento de rotinas em paralelo e
ferramentas para otimização como Hadoop114 e MapReduce115, HDFS116, além de abordagens
de MachineLearning117 e Analytics118.
113
114
Em valores aproximados a unidade Exabyte é equivalente a cerca de1.000 Petabytes, ou ainda, a
1.000.000 de Terabytes.
Hadoop é tecnologia open source desenvolvida pela Google e Yahoo para processar muitos dados
em servidores, usando a noção de processamento em paralelo e uso de clusters (conjuntos) de
computadores no processamento. Pode ser chamado de Apache Hadoop e também foi
desenvolvido e customizado por outros fabricantes (EMC, Intel, Microsoft, dentre outros).
3499
A abordagem de Big Data está apoiada em quatro outros fatores de sustentação,
conhecidos como os 4 Vs do Big Data: Volume, Variedade, Velocidade e Veracidade
(DUMBILL, 2012). A seguir será apresentado um breve esclarecimento do papel de cada um
desses componentes:
O primeiro V é de Volume e está ligado ao grande quantitativo de dados e
informações que nos cercam no cotidiano. Já o segundo V está ligado à variedade destes
recursos.
Devido a forte relação entre Volume e Variedade, estes fatores serão comentados em
conjunto. A multiplicidade de dispositivos e a capacidade destes dispositivos interagirem em
rede está promovendo a verdadeira inundação de dados. Cada um de nós carrega junto de si
um celular, que agindo como um sensor, pode enviar informação de localização das pessoas e
permitir a realização de negócios direcionados119. Ao levarmos em consideração que o
mundo tem cerca de 7 bilhões de habitantes (WIKIPEDIA, 2014) e que aproximadamente 6
bilhões possuem celulares (ONUBR, 2014), pensem no volume e na variedade de dados que
pode ser gerado, captado, processado, (re)utilizado e entregue.
As cidades estão repletas de câmeras de monitoramento nos prédios, lojas, ruas e
avenidas. Qualquer cidadão pode gravar e postar um vídeo em mídias sociais ou no Youtube.
Estima-se que a quantidade de vídeos produzidos diariamente ultrapassa a produção dos
primeiros 50 anos de televisão (DAVENPORT, 2014).
Saindo do cotidiano e observando o ambiente de ciência e tecnologia, temos muitos
outros exemplos. Os projetos de pesquisa de perfuração de petróleo em águas profundas,
incluindo o pré-sal (CIARINI, 2013; SANTOS, 2014), além de projetos de pesquisa em
astronomia, estão impulsionando o uso da abordagem de Big Data (PORTO, 2013).
115
116
117
118
119
MapReduce é o framework arquitetural que deu origem à tecnologia de Hadoop. Usa a estratégia
de dividir para conquistar, ou seja, distribui e aloca um problema muito grande em clusters de
armazenamento, usando registros serializáveis do tipo <chave, valor>.
HDFS é a sigla de Hadoop File System. É uma estrutura de armazenamento de arquivos que
utiliza blocos de 128 Mbytes, que são muito menores do que os blocos de particionamento
tradicionais, utilizados em dispositivos de armazenamento.
Machine Learning trata o uso de algorítimos que identificam o melhor modelo para ser aplicado
ao conjunto de dados.
Analytics é a essência de Big Data. Trata a análise dos dados e será apresentada mais à frente
neste relato.
Um exemplo para a prática de negócios direcionados é o e e-couponing. Esta prática possibilita o
envio de cupons de desconto em tempo real para os usuários, quando os mesmos estão nas
proximidades das lojas, utilizando-se as coordenadas GPS dos celulares dos usuários (FLORISSI,
2014).
3500
Adiciona-se a esse cenário, uma vasta coleção de outras fontes e formas para geração
de unidades documentárias. O crescimento do uso de documentos digitais e páginas Web nas
organizações, recursos estes estruturados por meio de ferramentas para Gestão de Conteúdo
(RIBEIRO, 2012), bem como o desenvolvimento de propostas de uso da Web of Data e
Linked Data (RIBEIRO, ALMEIDA, 2011; RIBEIRO, VIEIRA, 2014) também têm
contribuído para um aumento em Volume e Variedade de dados e informação.
Voltando aos 4 Vs do Big Data, chega-se agora ao terceiro V, de Velocidade. A
melhoria dos canais de transmissão, com redes em fibra ótica e emissores de sinais de alta
capacidade, o uso de satélites, o uso de outras bandas para a telefonia celular, as
comunicações em tempo real para controle de processos na internet, os workflows científicos
com processamento paralelo e cluster de processamentos vem possibilitando atingir uma
maior velocidade para troca de dados e informação (MATTOSO, 2013). Ademais, é possível
afirmar que a velocidade continuará crescendo, pois o desenvolvimento da tecnologia de
processadores, dos canais e do hardware para armazenamento (discos rígidos e memória
rápida – flash memory), duplica o seu poder a cada período de 2 anos (FLORISSI, 2012).
O quarto V é de Veracidade. A qualidade dos dados e informação é característica
essencial para que os usuários interessados (executivos, gestores públicos e a sociedade em
geral) usem e (re)usem os dados de maneira apropriada e real, gerando informações críveis
para eles mesmos.
Para concluir a noção de Big Data ainda vale explorar um componente que faz parte
do terceiro aspecto relacionado anteriormente por Davenport. A discussão sobre o trabalho de
análise dos dados, entendidos pela noção de Big Data Analytics.
3.2 Big data analytics
O objetivo da tarefa de Analytics é executar a análise preditiva dos dados por meio da
execução de mining (minerações)120. Segundo os autores Oliveira (2013) e Tavares (2014),
inicialmente, serão tratados os dados com o uso de técnicas estatísticas, para separação e
reunião de conjuntos (denominado de fase de discovery).
Adicionalmente, para executar a tarefa também pode-se fazer uso de técnicas para
categorização, limpeza e transformação dos dados, utilizando, inclusive, a visão da
proveniência (fontes de origem) dos dados para auxiliar no processo de categorização. Ao
final desta fase é possível chegar à definição e preparação de modelos (fase de data
120
A noção de mining de dados passa pela extração e análise de grandes volumes de informação em
busca de padrões e comportamentos.
3501
preparation e model planning) que serão úteis na construção do grande conjunto de dados,
chamado de lago de dados (data lake).
A carga de dados (denominada fase de ingest) ocorrerá em seguida e será realizada
para povoar o lago de dados. No lago estarão reunidos todos os dados que serão alvo de
análise. Por fim, os resultados que serão obtidos a partir do tratamento e análise do conteúdo
do lago serão apresentados com uso de ferramentas de visualização e deverão estar associados
ao contexto de negócios (OLIVEIRA, 2013; TAVARES, 2014).
A análise de dados que atendem aos requisitos descritos anteriormente (lembrem-se
dos 4 Vs), precisará ser desenvolvida segundo uma nova arquitetura de análise, onde dados
serão obtidos de múltiplas fontes e em tecnologias diversas. O ponto central desta análise está
ligado à capacidade de correlacionar dados, pois, como já observado, o ser humano possui
limitações para fazer análises associadas a múltiplas dimensões. Em essência, quando temos
uma pequena quantidade de dados (little data) não temos muita dificuldade de correlacionálos, pois existem poucas inter-relações. Mas, com uma grande quantidade (big data), temos
muitos dados sendo gerados em paralelo, logo, surge a dificuldade para correlacioná-los
(SEYMOUR, 2014).
Para Sathi (2013), o trabalho com os processos de negócio de uma organização
começa a prescindir de um profissional que saiba executar tarefas ligadas à fase de Analytics,
de forma que seja possível desenvolver novos produtos e serviços para os clientes e/ou
usuários.
3.3 O cientista de dados e a fase de discovery
O surgimento desta nova arquitetura de análise, impulsionou o processo para formação
de um perfil profissional que passou a ser denominado de Cientista de Dados (Data Scientist).
A característica principal deste profissional é ter a capacidade de aplicar ferramentas
analíticas e algoritmos para gerar previsões sobre produtos e serviços (DAVENPORT;
PATIL, 2012). Oliveira (2013) complementa e detalha que este perfil deve ter forte
conhecimento em disciplinas como a matemática e a estatística, com treinamento avançado
em estratégias para tratamento de grandes conjuntos de dados, fazendo uso de modelos
matemáticos, formulação de hipóteses e técnicas de regressão. Já Brietman (2014) observa
que o Cientista de Dados deve ter capacidade de levantar requisitos dos usuários, buscando
não apenas nas necessidades destes usuários, mas também nos outros envolvidos no ambiente
sob análise (clientes, parceiros de negócio, informações de mercado, feeds de notícias, redes
sociais, blogs, dentre outros).
3502
Para Oliveira (2013), o cientista de dados deve ser um técnico cético, curioso, criativo,
comunicativo e deve saber trabalhar em colaboração. Ademais, o cientista de dados deve
sempre (re)avaliar questões durante as primeiras fases do desenvolvimento do trabalho.
Oliveira continua e apresenta questões que podem auxiliar na revisão das fases de
Discovery, Data preparation e Model Planning. No entanto, daremos ênfase na fase de
Discovery, por ser o recorte adotado para esta pesquisa.
As principais questões apresentadas para a fase de Discovery são: eu possuo o
conhecimento suficiente do ambiente de dados e informação? Eu tenho informação suficiente
para esboçar um plano analítico e compartilhar com meus pares? Eu consigo desenvolver
trabalhos para organização para tipos de problemas? Categorizações e classificações de
dados? Projeto de conjuntos (clusters) de dados? Eu consigo esboçar e realizar entrevistas
para conhecer o contexto e domínio que será trabalhado? Eu posso identificar as diferentes
fontes de dados?
Em suma, os projetos de Big Data são desenvolvidos com os objetivos de criar novos
produtos, compreender necessidades dos clientes e seus comportamentos, bem como perceber
novos mercados. Para isto, é necessário desenvolver teorias para tratar com clientes e
usuários, construindo hipóteses e identificando dados e informações relevantes. Este processo
deve ser repetido e refinado, de acordo com os experimentos realizados e as respostas obtidas
(MARCHAND; PEPPARD, 2013).
4 METODOLOGIA
O recorte deste estudo contempla o uso de recursos ligados a organização do
conhecimento para auxiliar no desenvolvimento de projetos de Big Data, conforme requisitos
apontados (ver 3.1 e 3.2).
Trata-se de um estudo exploratório e tendo em vista o recorte adotado, buscou-se
identificar na primeira fase da pesquisa os conjuntos de dados e de informação que possuem
correlação com a temática de Acidentes de Trabalho. Esta primeira fase foi desenvolvida
sobre o conteúdo do portal de Dados Abertos da Dataprev121.
Com o intuito de complementar os conjuntos levantados, na segunda fase serão
reunidos outros sítios específicos na internet e rede sociais que debatem temas correlatos com
o assunto.
121
Disponível em http://dadosabertos.dataprev.gov.br
3503
As questões sobre a relevância da informação tratadas por Saracevic (1970; 1996b)
são utilizadas para auxiliar na definição dos conjuntos de interesse. Os itens relevantes, em
geral, responderam a questões que podem ser de interesse para o cliente e/ou usuário. Estas
questões devem ser desenvolvidas com o apoio de critérios, sintetizados a seguir (RIBEIRO,
2012):
As informações ou os conjuntos de dados selecionados ocasionam sentimentos de
excitação e satisfação aos clientes e/ou usuários;
Especificidade das pesquisas realizadas pelos clientes e/ou usuários estão
contempladas nos conjuntos selecionados;
As respostas esperadas cobrem conceitos que estão presentes nas suas pesquisas.
Com uma primeira versão de escopo definido, passou-se a observar as questões
apresentadas (ver 3.3) com o intuito de avaliar os conjuntos e correlações identificadas.
5 O EXPERIMENTO SOBRE OS DADOS DE ACIDENTES DE TRABALHO
A Previdência Social é detentora de muitos dados e informações da sociedade
brasileira. Com o esforço para publicação de dados em formato aberto para poderem ser
reutilizados pela sociedade (RIBEIRO, ALMEIDA, 2011), surgiram muitas possibilidades de
reuso, tanto em projetos de pesquisa específicos quanto em trabalhos acadêmicos
(FERREIRA; SANTANA; VIDOTTI, 2012; RODRIGUES, 2012; CAMPOS; CAMPOS;
CARVALHO; LIMA, 2012; ROCHA; CHAVES, 2013; GERMANO, 2013).
Esta investigação está sendo desenvolvida no âmbito de um projeto de pesquisa em
curso na Unirio e está apoiada em trabalhos anteriores desenvolvidos pelo autor. O objetivo
deste estudo é investigar um conjunto de atividades que viabilizem a participação do
profissional da informação na fase de Discovery de projetos de Big Data. Assim, a
delimitação do campo empírico se deu a partir da questão: é possível analisar os dados abertos
sobre Acidentes de Trabalho disponíveis no portal da Previdência e correlacioná-los com
comentários de blogs específicos e/ou redes sociais, para gerar análises que possibilitem a
construção de políticas de prevenção?
Para Oliveira (2013) as duas primeiras etapas para executar o trabalho de Discovery e
entendimento são: a identificação das informações que serão necessárias para possibilitar
interpretações sobre os resultados, correlações, implicações e causalidade; e determinar o(s)
tipo(s) de organização para estas informações (classificações e clusterizações).
3504
Na tarefa de entendimento a elaboração de modelos de dados é útil, pois permite
avaliar, inclusive, a possibilidade de realizar integrações de dados e associações. Sukumar e
Ferrel (2013) convalidam esta estratégia quando afirmam que conhecer estrutura dos dados e
seus relacionamentos, podem facilitar o trabalho de análise de conjuntos de dados.
Assim, a investigação partiu da identificação dos dados e informações relevantes no
Portal de Dados abertos da Dataprev e, neste sentido, foram identificados dois conjuntos de
dados que poderiam ser úteis para responder a questão de partida: Acidentes de Trabalho por
CBO122 e Acidentes de Trabalho por CNAE 2.0123. A representação a seguir (Figura 1) foi
gerada a partir de uma extensão do modelo obtido em (RIBEIRO, ALMEIDA, 2011).
FIGURA 1: Modelo de Dados dos conjuntos escolhidos
Ano
CBO
CNAE
tem
ocorre
Quantidade de Acidentes de
Trabalho
C/CAT
tem
S/CAT
Doença
Típico
Trajeto
Fonte: o autor
Os componentes desse modelo (entidades, relacionamentos e atributos) serão
utilizados na avaliação do conteúdo dos comentários, pois permitem alguma representação
semântica dos dados e informação contemplados pela modelagem.
122
123
Classificação Brasileira de Ocupações
Classificação Nacional de Atividade Econômica
3505
Cabe registrar que o modelo de dados permite representação semântica na medida em
que este modelo apresenta elementos (entidades e atributos) e relações em um determinado
domínio (CAMPOS, 2001). Campos, Campos, Carvalho e Lima (2012) reafirmam a estratégia
de modelagem conceitual, pois permite uma boa forma de efetuar a representação do
conhecimento em um domínio.
Vale ressaltar que conforme apresentado (ver 4) a complementação dos dados e
demais correlações será desenvolvida na próxima etapa, quando serão investigados e
trabalhados os dados originários de blogs e redes sociais, tomando-se por base os conceitos
presentes no modelo de dados. Nesta direção, o uso de aplicações para fazer o monitoramento,
tais como Socialmention (www.socialmention.com) e Topsy (www.topsy.com), possibilitará a
coleta, organização e categorização das informações obtidas nas redes sociais, construindo
uma proposta para representação de dados e informação na fase de Discovery. Já foram
identificados, preliminarmente, os seguintes endereços, que irão nortear a delimitação das
informações relevantes:
https://www.facebook.com/revistaprotecao
https://www.facebook.com/TSTJus?ref=ts
http://nrfacil.com.br/blog/?cat=172
http://atdigital.com.br/direitoprevidenciario/category/acidentes-do-trabalho/
http://seguranca-trabalho-tst.blogspot.com.br
http://blog.pesquisasaude.com/dia-nacional-da-preveno-de-acidentes-trabalho/
Shiri (2014) convalida a proposta aqui formulada para análise de informação na fase
de Discovery, quando apresenta facetas e sub-facetas para análise de grandes volumes de
dados. Apoiado em tipos de dados e no contexto dos conjuntos sob análise, além da estrutura
dos dados e dos metadados, Shiri propões estender práticas de organização e representação do
conhecimento para trabalhos com Big Data.
O trabalho de análise dos dados e informação originários de redes sociais pode ser
melhor estruturado com o apoio de uma Ontologia, pois esta pode guiar a identificação dos
objetos, suas características, propriedades e contextos que serão fundamentais no processo de
organização (PORTO, BAX, FERREIRA, SILVA; 2012). No entanto, pretende-se com este
estudo avaliar a possibilidade de uso de outras formas de representação, que podem apontar
caminhos alternativos à investigação, contribuindo para a evolução de métodos de
representação na fase de Discovery e com a participação de profissionais da informação.
3506
6 CONSIDERAÇÕES FINAIS
O uso das abordagens ligadas ao tema Big Data ainda carece de investigação pela área
de Ciência da Informação. O uso dessas abordagens poderá auxiliar na melhoria da oferta de
serviços de informação, pois conhecer o ambiente de dados e informação que deve ser
originário de diferentes fontes, efetuar a organização de conjunto de dados (categorizá-los?),
realizar entrevistas junto aos clientes e/ou usuários e desenvolver os modelos (tanto
estruturais quanto matemáticos), contribuirá para o projeto desses serviços.
Para Minelli, Chambers e Dhiraj (2013), o momento que vivemos é especial, pois a
contínua redução do custo dos equipamentos, além do uso de novos softwares e ferramentas
para apoiar os processos de gestão de dados e informação, têm contribuído para um momento
especial no tratamento da informação.
Quando lançamos um olhar na direção das bibliotecas e unidades de informação, é
possível perceber que tanto os estoques existentes quanto as demandas por outras fontes têm
crescido de forma exponencial, pois os ativos de informação de interesse para os usuários
estão armazenados em diferentes bases de dados, usando bancos de dados e plataformas de
computação heterogêneas (MELETIOU, KATSIRIKOV; 2009). Adicione-se a isso, a
presença cada vez maior de redes sociais e aplicações de colaboração nos serviços das
unidades de informação (DE JESUS, DA CUNHA; 2012; SANTOS, DA ROCHA; 2012),
ocasionando mudanças no comportamento dos usuários. Em suma, compreender e participar
de esforços com o uso de Big Data pode ser valioso para auxiliar na estruturação de unidades
de informação.
Espera-se que este movimento de pesquisa sobre o tema Big Data na área da Ciência
da Informação, ilumine o caminho a ser trilhado e possibilite que outros pesquisadores
interessados possam se engajar nesta discussão, levando os debates sobre este tema para além
da tecnologia.
REFERÊNCIAS
BRIETMAN, K. Big Data Seen from the Clouds. 2014. Palestra proferida no 2 o. EMC
Summer School on Big Data. EMC/NCE/UFRJ, Rio de Janeiro, 12 mai. 2014. Disponível em
http://2014.emcbigdataschool.nce.ufrj.br/images/presentations/_Big_Data_Summer_School_
Karin.pdf . Acesso em 30 de Maio de 2014.
CAMPOS, M. L. A. A organização de unidades de conhecimento: o modelo conceitual
como espaço comunicacional para a realização da autoria. 2001. Tese (Doutorado em Ciência
da Informação). ECO/IBICT, Universidade Federal do Rio de Janeiro, Rio de Janeiro, 2001.
3507
CAMPOS, M. L. M.; CAMPOS, M. L. de A.; CARVALHO, M. G. P. de; LIMA, D. V. M.
de. Dados abertos interligados e o espaço do profissional de informação: Uma aplicação no
domínio da enfermagem. In: ENCONTRO NACIONAL DE PESQUISA EM CIÊNCIA DA
INFORMAÇÃO – XIII ENANCIB, 2012, Rio de Janeiro, RJ. Anais... Rio de Janeiro:
FIOCRUZ, 2012.
CIARINI, A. E. M. Research on Big Data and Opportunities. Palestra proferida no 1 o. EMC
Summer School on Big Data. EMC/NCE/UFRJ, Rio de Janeiro, Fev. 2013.
DAVENPORT, T. H. Big Data at Work: Dispelling the Myths, Uncovering the
Opportunities. Boston: Harvard Business Review Press Books. 2014.
DAVENPORT, T. H.; PATIL, D.J. Data Scientist: The Sexiest Job of the 21st Century.
Harvard Business Review v. 90, n. 10, p. 70–76, Out. 2012.
DE JESUS, D. L.; DA CUNHA, M. B. Produtos e serviços da web 2.0 no setor de referência
das bibliotecas. Perspectivas em Ciência da Informação, v. 17, n. 1, p. 110-133, 2012.
DUMBILL, E. What is Big Data? In: O’REILLY MEDIA INC. Big Data Now: current
perspectives. California: O’Reilly Media, 2012. Disponível em:
<http://www.oreilly.com/data/free/files/big-data-now-2012.pdf>. Acesso em: 03 maio 2014.
EMC. Brazil country brief. The Digital Universe of opportunities. [relatório na internet]
2014. Disponível em: <http://www.emc.com/collateral/analyst-reports/idc-digital-universe2014-brazil.pdf>. Acesso em: 12 mai. 2014.
FERREIRA, A. M. J. F. da C.; SANTANA, R. C.; VIDOTTI, S. A. B. G. Second life:
perspectivas para potencializar o acesso a dados públicos. In: ENCONTRO NACIONAL DE
PESQUISA EM CIÊNCIA DA INFORMAÇÃO – XIII ENANCIB, 2012, Rio de Janeiro, RJ.
Anais ... Rio de Janeiro: FIOCRUZ, 2012.
FLORISSI, P. Big Data: Challenges and Opportunities. Palestra proferida no 2o. EMC
Summer School on Big Data. EMC/NCE/UFRJ, Rio de Janeiro, 13 mai. 2014.
FLORISSI, P. EMC On Big Data. 2012. Disponível em:
<https://www.carecorenational.com/healthcaresummit/powerpoints/PatriciaFlorissiPhD.pdf>.
Acesso em 12 mai. 2014.
FOX, P.; HENDLER, J. Changing the Equation on Scientific Data Visualization. Science, v.
331, p. 705, 2011. Disponível em: <http://data2discovery.org/dev/wpcontent/uploads/2013/05/Fox-and-Hendler_Visualization_Science-2011-Fox-705-8.pdf>.
Acesso em: 15 mai 2014.
GERMANO, E. C. Modelos de negócios adotados para o uso de dados governamentais
abertos: estudo exploratório de prestadores de serviços na cadeia de valor dos dados
governamentais abertos. 2013. Dissertação (Mestrado em Administração) - Faculdade de
Economia, Administração e Contabilidade, Universidade de São Paulo, São Paulo, 2013.
Disponível em: <http://www.teses.usp.br/teses/disponiveis/12/12139/tde-10012014-155226/>.
Acesso em: 26 jul 2014.
GOPINATH, M A.; DAS, P. Classification and representation of Knowledge. Library
Science with a Slant to Documentation and Information Studies, v. 34, n. 2, p. 85-90,
1997.
3508
HEATH T.; BIZER C. Linked Data: Evolving the Web into a Global Data Space (1st
edition). Synthesis Lectures on the Semantic Web: Theory and Technology. Morgan &
Claypool Publishers, 2011.
MARCHAND, D. A.; PEPPARD, J. Why IT Fumbles Analytics. Harvard Business Review.
Jan-Fev 2013.
MATTOSO, A. Scientific Workflows and Big Data. Palestra proferida no 1 o. EMC Summer
School on Big Data. EMC/NCE/UFRJ, Rio de Janeiro, Fev. 2013.
MELETIOU, A; KATSIRIKOU, A. Methodology of analysis and interrelation of data about
quality indexes of library services by using data-and knowledge-mining techniques. Library
Management, v. 30, n. 3, p. 138-147. 2009 .
MINELLI, M.; CHAMBERS, M.; DHIRAJ, A. Big Data, Big Analytics: Emerging Business
Intelligence and Analytic Trends for Today's Businesses. Wiley CIO Series. 2013
OLIVEIRA, A. Data Science and Data Analytics. 2013. Palestra proferida no 1 o. EMC
Summer School on Big Data. EMC/NCE/UFRJ, Rio de Janeiro, Fev. 2013.
ONUBR. NAÇÕES UNIDAS NO BRASIL. ONU: Dos 7 bilhões de habitantes do mundo …..
22 de março de 2013. Disponível em http://www.onu.org.br/onu-dos-7-bilhoes-de-habitantesdo-mundo-6-bi-tem-celulares-mas-25-bi-nao-tem-banheiros/ Acesso em 10 de maio de 2014.
PORTO, F. Big Data in Astronomy: The LIneA-DEXL case . Palestra proferida no 1o. EMC
Summer School on Big Data. EMC/NCE/UFRJ, Rio de Janeiro, Fev. 2013.
PORTO, R. M. A. B.; BAX, M. P.; FERREIRA, L. G. da F.; SILVA, G. C. Análise de
sentimento sobre veículos em redes sociais. In: ENCONTRO NACIONAL DE PESQUISA
EM CIÊNCIA DA INFORMAÇÃO – XIII ENANCIB, 2012, Rio de Janeiro, RJ. Anais ...
Rio de Janeiro: FIOCRUZ, 2012.
RIBEIRO, C. J. S. Diretrizes para o projeto de portais de informação: uma proposta
interdisciplinar baseada na Análise de Domínio e Arquitetura da Informação. 2008. 298 f.
Tese (Doutorado em Ciência da Informação) – Convênio UFF/IBICT, Rio de Janeiro.
RIBEIRO, C. J. S. Projeto de serviços para Gestão Documental com uso de abordagem
tecnológica SOA (Arquitetura Orientada a Serviços). Informação & Sociedade: Estudos,
João Pessoa, v. 22, n. 2, 2012.
RIBEIRO, C. J. S.; ALMEIDA, R. F. Dados Abertos Governamentais (Open Government
Data): Instrumento para Exercício de Cidadania pela Sociedade. In: ENCONTRO
NACIONAL DE PESQUISA EM CIÊNCIA DA INFORMAÇÃO – XII ENANCIB, Brasília,
DF. Anais ... Brasília: Thesaurus, 2011.
RIBEIRO, C. J. S.; PEREIRA, D. V. El proceso de publicación e los datos gubernamentales
abiertos acerca de la clase de la Seguridad Social Brasileña de Vocabulario Controlado del
Gobierno Electrónico (VCGE). In: SIMPOSIO LATINOAMERICANO ACCESSO A LA
INFORMACIÓN GUBERNAMENTAL, 2014, Cidade do México. Anais ... Cidade do
México, 2014.
RIBEIRO, C. J. S. Big Data: os novos desafios para o profissional da nformação. Informação
& Tecnologia (ITEC): João Pessoa/Marília, v. 1, n. 1, p. 96-105, jan./jun., 2014
3509
ROCHA, E.; CHAVES, M. GovMobile: Uma Proposta para Disponibilizar Dados Abertos
Georreferenciados para Governo Eletrônico. In: WAIHCWS. 2013. Anais ... p. 14-20.
Disponível em : http://ceur-ws.org/Vol-1051/paper2.pdf. Acesso em 20 de julho de 2014.
RODRIGUES, F. de A. Mapeamento de tecnologias informacionais sobre dados abertos
em saúde pública: destino de repasses financeiros federais. Dissertação (Mestrado em
Ciência da Informação). Universidade Estadual Paulista. Faculdade de Filosofia e Ciências.
2012.
SANTOS, E. L.; DA ROCHA, S. M. O blog como ferramenta de comunicação entre a
biblioteca e seus usuários: a experiência da biblioteca Lydio Bandeira de Mello, da Faculdade
de Direito da Universidade Federal de Minas Gerais. Encontros Bibli, v. 17, n. 33, p. 134152, 2012.
SANTOS, I. H. R. BigData Research and Developement at Petrobras. Palestra proferida no 2o.
EMC Summer School on Big Data. EMC/NCE/UFRJ, Rio de Janeiro, 13 mai. de 2014.
Disponível em:
<http://2014.emcbigdataschool.nce.ufrj.br/images/presentations/Ismael_BigDataTOOL_Sum
merSchool_v2.pdf>. Acesso em: 20 mai. 2014.
SAP Blog. A SAP e a Associação Alemã de Futebol (DFB) transformaram o Big Data em
decisões inteligentes para melhorar o desempenho dos jogadores na Copa do Mundo no
Brasil. SAP17 de junho de 2014. Disponível em : http://blogs.sap.com/brazil/big-data/sap-eassociacao-alema-de-futebol-dfb-transformaram-o-big-data-em-decisoes-inteligentes-paramelhorar-o-desempenho-dos-jogadores-na-copa-mundo-brasil-2744
SARACEVIC, T. The concept of "relevance" in Information Science: an historical review. In:
______. Introduction to Information Science. New York: R. R. Bowker, 1970. p.111-154.
SARACEVIC, T. Ciência da informação: origem, evolução e relações. Perspectivas em
Ciência da Informação, Belo Horizonte, v. 1, n. 1, p. 41-62, jan./jun. 1996a.
SARACEVIC, T. Relevance reconsidered 1996. Information Science: Integration in
Perspectives. In: INTERNATIONAL CONFERENCE ON THE CONCEPTIONS OF
LIBRARY AND INFORMATION SCIENCE, 2 (COLIS, 2). Copenhagen. An is …
Denmark. 1996b.
SATHI, A. Big Data Analytics: Disruptive Technologies for Changing the Game. Mc Press.
2013.
SEYMOUR, C. The State of Big Data. EContentMag.com. p. 26-27. Jan-Feb 2014.
SHIRI, A. Making Sense of Big Data: A Facet Analysis Approach. Knowledge Organization
(Journal), v. 41, n. 5, p. 357-368, 2014.
SUKUMAR, S. R.; FERREL, R. K. ‘Big Data’ collaboration: Exploring, recording, and
sharing enterprise knowledge. Information Services & Use, n. 33. 2013.
TAVARES, E. Big Data in Business. Palestra proferida no 2o. EMC Summer School on Big
Data. EMC/NCE/UFRJ, Rio de Janeiro, 12 mai. 2014. Disponível em:
<http://2014.emcbigdataschool.nce.ufrj.br/images/presentations/Apresentacao_Elaine_Tavare
s.pdf>. Acesso em: 30 mai 2014.
TOFLER, A. Third Wave: The classic study for tomorrow. Bantam Books: New York. 1984
3510
WIKIPEDIA. A Enciclopédia Livre. Disponível em:
<http://pt.wikipedia.org/wiki/População_mundial>. Acesso em: 10 mai. 2014.
WURMAN, R. S. Ansiedade de Informação 2. São Paulo: Editora de Cultura, 2005.
3511
ONTOLOGIA BASEADA NOS FRBR: PROPOSTA DE APLICAÇÃO EM
CATÁLOGOS ONLINE
ONTOLOGY BASED ON FRBR: PROPOSED APPLICATION IN ONLINE CATALOGUE
Zaira Regina Zafalon
Rogério Aparecido Sá Ramalho
Resumo: Com o desenvolvimento e a popularização de tecnologias informacionais
ampliaram-se e inovaram-se as formas de produção e registro do conhecimento humano de
modo a ser possível recorrer aos mais variados suportes para seu registro. Observa-se,
também, que, com o aumento exponencial da criação, da transmissão e da transferência de
informações em meios digitais, um novo paradigma informacional é apresentado, com
destaque ao acesso e não à propriedade. Diante desse cenário, e com o intuito de garantir a
recuperação e o (re)uso de informações, (re)definem-se métodos e instrumentos de
organização, disseminação e acesso aos registros, no qual destacam-se as ontologias e a
catalogação. Neste sentido, apresenta-se a seguinte questão de pesquisa: é possível utilizar as
relações existentes entre as entidades dos Requisitos Funcionais dos Registros Bibliográficos
como substratos teóricos no desenvolvimento de ontologias, para que seja possível garantir
aos usuários pela navegação, o desenvolvimento de tarefas que permitam encontrar,
identificar, selecionar e obter acesso aos recursos bibliográficos? Apresenta-se como objetivo
geral desenvolver um protótipo de ontologia baseada nas relações previstas entre as entidades
dos Requisitos Funcionais dos Registros Bibliográficos (FRBR), que considera, em seu bojo,
as tarefas a serem desempenhadas pelos usuários. Define-se, como objetivos específicos,
analisar as contribuições teórico-metodológicas da Ciência da Informação no
desenvolvimento de ontologias na representação da informação, com suas ferramentas,
técnicas, tecnologias e metodologias; e descrever entidades e relacionamentos previstos nos
Requisitos Funcionais de Registros Bibliográficos e sua correlação com as tarefas a serem
desempenhadas pelos usuários. A pesquisa caracteriza-se com abordagem qualitativa, de
natureza aplicada, com objetivos exploratórios e descritivos e recorre-se à pesquisa
bibliográfica e documental para a construção do arcabouço teórico. Optou-se, como
procedimento metodológico que permita viabilizar a resposta à questão de pesquisa, pelo
desenvolvimento de um protótipo que se utiliza das entidades e relacionamentos previstos nos
FRBR como substrato teórico para a elaboração da ontologia. Os resultados demonstram
viabilidade parcial de se recorrer às entidades dos Requisitos Funcionais de Registros
Bibliográficos para fundamentar o desenvolvimento de ontologias. Esse resultado é
decorrente do fato de serem encontradas dificuldades conceituais para a modelagem, haja
vista os FRBR considerarem que algumas das entidades podem estar previstas em dois
grupos. Tal situação faz com que a modelagem seja considerada conceitualmente incorreta,
uma vez que não é possível satisfazer aos critérios de entidades pertencerem a diferentes
grupos, caracterizando polissemia.
Palavras-chave: Ontologias. Representação da Informação. Catalogação. Requisitos
Funcionais para Registros Bibliográficos.
Abstract: With the development and popularization of information technologies have expanded
and innovated the forms of production and record of human knowledge in order to be possible
to use various media to your registry. Observe also that, with the exponential increase in the
creation, transmission and transfer of information in digital media, a new informational
paradigm is presented, emphasizing access and not ownership. Given this scenario, and in order
to ensure recovery and (re) use of information, (re) define themselves instruments and methods
3512
of organization, dissemination and access to records, in which we highlight the ontologies and
cataloging. In this sense, we present the following research question: is possible to use relations
existing between the entities of the Functional Requirements for Bibliographic Records as the
theoretical substrates applied to development of ontologies, so that you can ensure users for
navigation, the development of tasks that allow to find, identify, select and obtain access to
library resources? It is presented as general objective to develop a prototype ontology based on
relationships between entities provided the Functional Requirements for Bibliographic Records
(FRBR), which considers, in its wake, the tasks to be performed by users. Is defined, specific
objectives, analyze the theoretical and methodological contributions of Information Science to
develop ontologies in information representation, with their tools, techniques, technologies and
methodologies; and describe entities and relationships specified in Functional Requirements for
Bibliographic Records and its correlation with the tasks to be performed by users. The research
is characterized with qualitative approach and applied nature, with exploratory and descriptive
goals and resorts to literature and documents to build the theoretical framework research. It was
decided, as a methodological procedure to facilitate the response to the research question, the
development of a prototype which uses the entities and relationships in FRBR as provided
theoretical basis for the elaboration of the ontology. The results demonstrate feasibility of using
partial entities of the Functional Requirements of Bibliographic Records to support the
development of ontologies. This result is due to the fact that they found it difficult to conceptual
modeling, given FRBR consider that some of the entities can be provided in two groups. This
situation makes the modeling is considered to be conceptually wrong, since it is not possible to
meet the criteria of entities belonging to different groups, characterized polisemy.
Keywords: Ontologies. Representation of Information. Cataloging. Functional Requirements
for Bibliographical Records.
1 INTRODUÇÃO
Ao longo dos anos, com o desenvolvimento e a popularização de tecnologias
informacionais, ampliaram-se e inovaram-se as formas de produção e registro do
conhecimento humano de modo a ser possível recorrer aos mais variados suportes para seu
registro, quer sejam analógicos, eletrônicos ou digitais. Observa-se, também, que, com o
aumento exponencial da criação, da transmissão e da transferência de informações em meios
digitais, um novo paradigma informacional é apresentado, com destaque ao acesso e não à
propriedade, sendo possível ignorar barreiras geográficas, culturais e temporais.
Identificam-se, entretanto, problemas advindos da relação intrínseca dessa situação
junto ao pressuposto apresentado por Ranganathan (2009), Poupe o tempo do leitor, que, por
extensão, associa-se a todo e qualquer processo que deva ser envidado de modo a garantir
satisfatoriamente a recuperação e o acesso ao documento pelo usuário, e quanto às críticas
apresentadas por Bush (1945), de que um registro do conhecimento torna-se útil à Ciência a
partir do momento em que se é ampliado, armazenado e, sobretudo, consultado. Se, à época,
Bush (1945) apresentava críticas às limitações dos sistemas de organização e representação da
informação e à “artificiality of systems of indexing”, o que dizer da aplicabilidade de métodos
e de instrumentos do século passado em uma era em que tablets, e-readers, smartphones,
3513
bases de conhecimento colaborativo (wikis), portais, blogs, microblogs e redes sociais fazem
parte do cotidiano?
Diante desse cenário, e com o intuito de garantir a recuperação e o (re)uso de
informações, (re)definem-se métodos e, consequentemente, instrumentos de organização,
disseminação e acesso aos registros, no qual destacam-se as ontologias, os catálogos e a
catalogação.
Neste sentido, apresenta-se a seguinte questão de pesquisa:
é possível utilizar as
relações existentes entre as entidades dos Requisitos Funcionais dos Registros Bibliográficos
como substratos teóricos no desenvolvimento de ontologias, para que seja possível garantir
aos usuários pela navegação, o desenvolvimento de tarefas que permitam encontrar,
identificar, selecionar e obter acesso aos recursos bibliográficos?
As ontologias têm favorecido uma aproximação entre os modelos e métodos
tradicionalmente utilizados no âmbito da Ciência da Informação com as novas tecnologias
semânticas. “[...] as ontologias têm sido apontadas como uma nova possibilidade de
representação de recursos informacionais em bibliotecas.” (RAMALHO, 2010, p. 17). As
tecnologias, por sua vez, como extensoras das atividades de coleta, processamento, memória e
transmissão de dados, contribuem para um sistema de acesso à informação. Svenonius (2000),
entretanto, ressalva que a eficácia do sistema é função direta da inteligência adotada para
organizá-lo.
Nesta perspectiva, a principal motivação nesta pesquisa advém da contribuição que se
espera dar no âmbito da implementação de novos recursos que recorrem à tecnologia para o
atingimento da missão fundamental das bibliotecas, tal qual apresentado por Ranganathan
(2009, p. 263): “[...] ser um instrumento de educação universal que reúne e difunde livremente
todos os recursos de ensino e dissemina o conhecimento com a ajuda delas”.
Apresenta-se, assim, o objetivo geral desse trabalho: desenvolver um protótipo de
ontologia baseada nas relações previstas entre as entidades dos Requisitos Funcionais dos
Registros Bibliográficos, que considera, em seu bojo, as tarefas a serem desempenhadas pelos
usuários. Com vistas ao cumprimento deste objetivo definem-se os seguintes objetivos
específicos: a) analisar as contribuições teórico-metodológicas da Ciência da Informação no
desenvolvimento de ontologias na representação da informação, com suas ferramentas,
técnicas, tecnologias e metodologias; e b) descrever entidades e relacionamentos previstos nos
Requisitos Funcionais de Registros Bibliográficos e sua correlação com as tarefas a serem
desempenhadas pelos usuários.
3514
Esta pesquisa caracteriza-se com abordagem qualitativa, pois, segundo Silveira e
Córdova (2009), apresenta características voltadas à descrição, compreensão e explicação de
relações de um determinado fenômeno de modo a considerar o caráter interativo entre os
objetivos definidos e as orientações teóricas da pesquisa. Determina-se, também, como
pesquisa de natureza aplicada, uma vez que “objetiva gerar conhecimentos para aplicação
prática, dirigidos à solução de problemas específicos” (op. cit., p. 35). Quanto aos objetivos, a
pesquisa compreende aspectos exploratórios e descritivos, uma vez que busca tornar o
problema mais explícito a partir de hipóteses, o que exige descrição de fatos observados (GIL,
2007; TRIVIÑOS, 1987). Recorre-se a procedimentos de pesquisa bibliográfica e documental
para a construção do arcabouço teórico, uma vez que recorre a fontes de informação primárias
e secundárias, e a partir do desenvolvimento de um protótipo busca-se analisar a possibilidade
da utilização das entidades dos Requisitos Funcionais de Registros Bibliográficos como
substratos teóricos para a elaboração de ontologias.
A pesquisa consolida, no tópico dois, as ontologias como instrumento de
representação, no tópico três, as entidades e relacionamentos dos Requisitos Funcionais dos
Registros Bibliográficos e as tarefas dos usuários, e, no tópico quatro, apresenta um protótipo
de ontologia que possibilita a junção dos conceitos relacionados ao desenvolvimento de
ontologia com os padrões já sedimentados na área de Catalogação a partir da realização de
inferências automáticas baseadas nas entidades e relacionamentos previstos nos Requisitos
Funcionais dos Registros Bibliográficos.
2 ONTOLOGIAS COMO INSTRUMENTO DE REPRESENTAÇÃO
No âmbito da área de Ciência da Informação o termo ontologia passou a ser utilizado
no final da década de 1990, quando instrumentos de representação de informações
despertaram maior interesse dos pesquisadores das mais diversas áreas do conhecimento,
impulsionados pela criação do ambiente Web e desenvolvimento de novas tecnologias digitais
(SOERGEL, 1999; VICKERY, 1997).
García-Marco (2007) ressalta que o crescente aumento do número de pesquisas
relacionadas com ontologias e metadados na área de Ciência da Informação constitui a “ponta
do iceberg” de um processo de reconfiguração disciplinar, como resultado da integração de
diversas Ciências. Deste modo, verifica-se ao longo da última década um maior empenho na
consolidação das definições de ontologia e análise das possibilidades de uso como
instrumento de representação (SANTOS; CORREA; SILVEIRA, 2013).
3515
Entre as definições de ontologia mais referenciadas na literatura destaca-se a
apresentada por Gruber (1993, p. 1) de que “é uma especificação explícita de uma
conceitualização”. Contudo, tal definição remete o conceito de ontologia a aspectos
filosóficos, favorecendo a geração de conflitos terminológicos, conforme destaca Guarino
(1998, p. 5):
No sentido filosófico, podemos nos referir a uma "ontologia" como um
sistema particular de categorias que versa sobre uma certa visão do mundo.
Desta forma, este sistema não depende de uma linguagem particular: a
ontologia de Aristóteles é sempre a mesma, independente da linguagem
usada para descrevê-la. Por outro lado, em seu uso mais prevalecente na IA
[inteligência artificial], uma ontologia é referida como um artefato de
engenharia, constituído de um vocabulário específico usado para descrever
uma certa realidade e um conjunto de pressupostos explícitos relacionados
com o significado pretendido para as palavras do vocabulário.
Nesta perspectiva, com o intuito de aproximar o conceito de ontologia aos
pressupostos da área de Ciência da Informação, principalmente quanto aos processos de
representação, tratamento, organização e recuperação de recursos informacionais, recorre-se a
Ramalho (2010, p. 107) que define ontologia como
[...] um artefato tecnológico que possibilita representar formalmente as
propriedades e relacionamentos de um determinado modelo conceitual,
favorecendo a utilização de inferências automáticas nos processos de
organização e recuperação de recursos informacionais.
Tal definição caracteriza as ontologias no âmbito da área de Ciência da Informação
como instrumentos de nível epistemológico, concebidos a partir de linguagens
computacionais com o intuito de favorecer a representação formal dos relacionamentos
existentes entre os conceitos de um domínio específico.
Neste contexto, as ontologias figuram como uma nova abordagem computacional de
representação, descrição e organização de conteúdos informacionais, favorecendo a
aproximação dos modelos clássicos de representação, utilizados tradicionalmente no âmbito
da área de Ciência da Informação, com as novas tecnologias semânticas desenvolvidas ao
longo dos últimos anos.
As ontologias potencializam a representação dos relacionamentos existentes entre os
conceitos que traduzem os conteúdos informacionais de modo a possibilitar representações
semânticas que não poderiam ser obtidas a partir de descrições textuais, caracterizando-se
como um tipo de fonte secundária, instituindo novas formas de acesso e favorecendo maior
flexibilidade na recuperação de informações, por meio da realização de inferências. Quanto ao
enfoque das representações semânticas, Zafalon (2013) esclarece que “é a semântica que dá
3516
conta dos processos mentais segundo os quais se produz, constitui, compreende e descreve a
representação de um recurso informacional.”
Deste modo, verifica-se que a Ciência da Informação pode contribuir para o
desenvolvimento de ontologias a partir do fornecimento de substratos teóricos e
metodológicos que possibilitam o reaproveitamento de instrumentos e métodos já
sedimentados em seu campo de atuação.
Ao longo dos últimos anos inúmeras metodologias têm sido propostas para o
desenvolvimento de ontologias. Dentre elas, destacam-se a de Uschold e King (1995), a de
Uschold e Gruninguer (1996), a de Férnandez, Gómez-Pérez e Juristo (1997), e o método 101,
proposto por Noy e McGuinness (2001). No âmbito da área de Ciência da Informação
destacamos o método proposto por Ramalho (2010) para o desenvolvimento de ontologias a
teoria do conceito e a teoria da classificação facetada utilizadas na elaboração de tesauros
(CAMPOS; GOMES, 2006; GOMES, et al., 1990), bem como a norma ANSI/NISO Z39.192005, que apresenta diretrizes para a elaboração de vocabulários controlados.
No escopo desta pesquisa recorre-se, dentre os diversos métodos, modelos e
instrumentos adotados na Ciência da Informação, às relações previstas entre as entidades dos
Requisitos Funcionais de Registros Bibliográficos (FRBR), estabelecidos pela International
Federation of Library Associations and Institutions (1998), para o desenvolvimento de um
catálogo baseado em ontologia. Esta opção foi feita com base na aproximação cada vez mais
notável entre a Ciência da Informação e a Ciência da Computação e pelo fato de que o
desenvolvimento de ontologias apresentar-se como um processo não-linear, que requer
refinamentos e interações sucessivas até a obtenção de um modelo que se mostre adequado às
necessidades propostas. Conforme destacam Zhao e Hu (2007) a utilização de ontologias
mostra-se como uma abordagem promissora que possibilita expressar formalmente a
semântica de informações estruturadas e semiestruturadas, a fim de apoiar a aquisição,
manutenção e acesso de informações.
3 REQUISITOS FUNCIONAIS PARA REGISTROS BIBLIOGRÁFICOS (FRBR) E AS
TAREFAS DOS USUÁRIOS
Catalogar recursos informacionais mostra-se como atividade que fundamenta a
recuperação e o acesso aos documentos uma vez que é por meio do registro bibliográfico que
se torna possível efetivar o processo comunicativo entre unidades de informação e seus
usuários; em outras palavras, é por meio dos registros, resultados da catalogação, que os
documentos tornam-se recuperáveis e acessíveis em catálogos. Afinal, conforme afirma
3517
Zafalon (2012, p. 46), “As bibliotecas utilizam-se de catálogos, instrumentos disponíveis em
diversas formas ou suportes (livros, folhas soltas, fichas ou eletrônicos) com o objetivo de
garantir a recuperação dos registros bibliográficos pelo público a que se destina.”
Segundo Santos e Correia (2009), o registro bibliográfico compreende um conjunto de
elementos que apresentam funcionalidades de unicidade, instanciamento e armazenamento do
item. De acordo com a International Federation of Library Associations and Institutions
(2005) o registro bibliográfico é um conjunto de dados, compostos por entidades, que
descrevem ou identificam um ou mais obras, expressões, manifestações ou itens.
Em se tratando do universo bibliográfico, a International Federation of Library
Associations and Institutions (2009) afirma que as entidades, seus atributos e relacionamentos
estão presentes no registro bibliográfico uma vez que “baseia-se, tipicamente, no item
enquanto representante da manifestação e pode incluir atributos que pertençam à(s) obra(s) e
expressão(ões) nela contidas”. As entidades representam conceitos chaves para uso em
registros bibliográficos pois é na catalogação que há sistematização dos atributos e dos
relacionamentos característicos das entidades. Zafalon (2011, p. 136) afirma que o processo
de representação “visa, por um lado, a individualização de registros do conhecimento, pelos
seus diferenciados aspectos físicos, ou de suas manifestações, ou de seus itens; e, por outro, a
reunião por meio de suas características de conteúdo, ou de suas expressões ou de suas obras.”
Desse modo, com vistas ao estudo sobre a apresentação de resultados de pesquisa ao
usuário estabeleceu-se o modelo conceitual de um conjunto de entidades, seus atributos e
relacionamentos, consolidados nos Requisitos Funcionais de Registros Bibliográficos (FRBR)
e publicados pela International Federation of Library Associations and Institutions (1998).
Dentre os objetivos traçados para os FRBR está incluso o de “fornecer um quadro
estruturado, claramente definido, para relacionar dados registrados em registros bibliográficos
às necessidades dos usuários destes registros.” (op. cit.). O modelo apresenta um conjunto de
dez entidades, subdivididas, a partir da função que desempenham, do seguinte modo: obra,
expressão, manifestação e item consolidam o grupo que retrata o produto do esforço
intelectual e artístico (o quê); pessoa e entidade coletiva retratam o grupo responsável pelo
conteúdo intelectual ou artístico bem como pela produção e disseminação (quem); obra,
expressão, manifestação, item, pessoa, entidade coletiva, conceito, objeto, evento e lugar
consolidam as entidades que servem como assunto de um obra (sobre).
A consolidação de tais entidades, representadas por meio de seus atributos, estabelece
relacionamentos dos mais variados tipos. Svenonius (2000) ressalta que relações entre obras
incluem relações generalizadas (é uma subclasse de), relações de agregação (é parte de), e
3518
relações associativas (é uma seqüência de, é uma adaptação de, é uma abreviação de, é
descrito por). Relações entre nomes de atributos de obra incluem equivalência, hierarquia e
relações associativas. A figura abaixo exemplifica a distribuição de entidades e
relacionamentos previstos nos FRBR para a obra Dom Casmurro, de Machado de Assis.
FIGURA 1 - Exemplo de relacionamentos e atributos de entidades na obra Dom Casmurro
Fonte: Elaborado pelos autores.
Por meio das relações estabelecidas entre as entidades torna-se possível compreender,
segundo International Federation of Library Associations and Institutions (2009), que a
funcionalidade de pesquisa é característica dos pontos de acesso estabelecidos em um registro
bibliográfico e de autoridade, uma vez que delimitam os resultados apresentados, e que,
diante da recuperação de vários registros que correspondem a um mesmo ponto de acesso, se
faz necessária a apresentação dos resultados de uma forma que faça sentido e seja conveniente
ao usuário. Assim, de acordo com a Declaração de Princípios Internacionais de Catalogação,
publicada pela International Federation of Library Associations and Institutions (2009), aos
3519
usuários deve ser possível, por meio da navegação entre os registros de um catálogo,
encontrar documentos que atendam às suas expectativas, de modo a ser confirmada a
correspondência entre a entidade descrita e a procurada e a escolha do recurso a ser obtido,
independente de onde esteja localizado.
Estabelece-se, portanto, que a eficácia no processo de recuperação e acesso aos
recursos informacionais depende tanto da qualidade dos registros bibliográficos, ao indicarem
a relação entre entidades, atributos e relacionamentos, quanto da forma de apresentação dos
resultados de pesquisa em catálogos, uma vez que esta é uma ação determinante para o
sucesso no desenvolvimento de tarefas a serem desempenhadas pelos usuários.
Ressalta-se que, apesar de já se ter conhecimento de algumas iniciativas que
consideram o desenvolvimento de catálogos baseados nos FRBR, apresenta-se, no tópico
seguinte, um protótipo de ontologia baseado nas entidades e relacionamentos previstos nos
FRBR.
4 ONTOLOGIA BASEADA NOS FRBR
Construir uma ontologia compatível tanto com os hábitos da comunidade quanto com
as normas que possibilitam usufruir das capacidades oferecidas pelas tecnologias semânticas,
é o primeiro passo para que as bibliotecas digitais possam mudar nossa forma de pesquisa,
acesso e utilização dos recursos (DABROWSKI; SYNAK; KRUK, 2009).
Nesta perspectiva, com base no método proposto por Ramalho (2010) propõe-se o
desenvolvimento de uma ontologia baseada nas entidades, atributos e relacionamentos
previstos nos FRBR, cujo escopo considera as tarefas a serem desempenhadas pelos usuários,
e que inicia estudos para aplicação em catálogos online que possam favorecer melhor
representação e interoperabilidade de registros bibliográficos, frente a crescente necessidade
de compartilhamento de recursos.
De acordo com o método utilizado, após a definição do propósito e escopo da
ontologia, realizou-se estudo com o intuito de identificar instrumentos tradicionalmente
utilizados no âmbito da Ciência da Informação que pudessem servir de substrato teórico para
a modelagem da ontologia. Para que uma ontologia represente de forma fidedigna o
conhecimento de um determinado domínio, a definição das classes e conceitos exige cuidado
especial na precisão conceitual e identificação de suas relações. Neste sentido, as entidades e
relacionamentos previstos nos FRBR serviram de arcabouço teórico para a definição dos
componentes estruturais da ontologia.
3520
Conforme destacam Ramalho e Fujita (2011) podem ser considerados como
componentes estruturais de uma ontologia as Classes/Subclasses; Propriedades Descritivas;
Propriedades Relacionais e Regras/Axiomas. Tais componentes formam a espinha dorsal da
ontologia, permitindo a representação formal dos elementos e relacionamentos do domínio
modelado.
Na perspectiva de reuso de ontologias identificou-se na literatura vocabulários e
outras ontologias que possuem relação com a proposta nesta pesquisa. Porém devido ao
escopo baseado nas entidades e relacionamentos previstos nos FRBR, recorreu-se ao
reaproveitamento de padrões de metadados já sedimentados na área de Catalogação.
Em relação à nomeação dos componentes da ontologia, com o objetivo de facilitar a
compreensão e evitar possíveis problemas de interoperabilidade, seguiu-se a convenção de
não utilizar acentuação, espaços e caracteres especiais. Definiu-se, também, a utilização de
letras maiúsculas no início e em todas as palavras subsequentes contidas no nome das classes
e subclasses, notação comumente denominada como CamelBack. O mesmo procedimento foi
adotado para representar as propriedades relacionais da ontologia, com exceção do uso de
letras minúsculas no início de seus nomes, diferenciando-as das classes. Quanto às
propriedades descritivas, com o intuito de facilitar a assimilação dos componentes da
ontologia, utilizou-se como padrão a denominação prevista nos FRBR, em língua inglesa, sem
espaçamento.
Conforme destacado anteriormente, para que todo o potencial das ontologias possa ser
explorado, torna-se necessário sua formalização a partir de linguagens que possam ser
processadas por máquinas. Deste modo, após as definições conceituais das etapas anteriores,
realizou-se a implementação da ontologia e formalização das regras e axiomas de modo a
possibilitar a realização de inferências automáticas.
De acordo com os objetivos da ontologia proposta elegeu-se a linguagem OWLDL/XML para a implementação, dada a aderência aos padrões do W3C e às características
que possibilitam maior decidibilidade lógica/computacional. Como ferramenta de apoio para a
modelagem e formalização das regras e axiomas utilizou-se a ferramenta Protégé versão 4.3.0
(Build 304) e o motor de inferência padrão da ferramenta FaCT++.
Após a implementação, realizou-se a avaliação e a documentação da ontologia,
utilizando-se dos próprios recursos da ferramenta Protégé (a partir da inserção de anotações
em seus componentes). Os procedimentos de avaliação, podem ser divididos em duas
categorias:
3521
Avaliação da hierarquia de classes e componentes da ontologia: realizada a partir dos
critérios da metodologia OntoClean, (re)adequando ontologicamente os componentes
estruturais da ontologia até a obtenção do modelo desejado;
Avaliação das regras e axiomas: efetuada por meio do julgamento do resultado de
buscas que se aproximem das necessidades informacionais de usuários em potencial,
simuladas para avaliar a capacidade representação, recuperação e realização de
inferências automáticas de acordo com os objetivos propostos.
Tal processo foi realizado interativamente e de forma não-linear, por meio de
refinamentos sucessivos, para se chegar ao resultado esperado. Nesta perspectiva, apresentamse, nos próximos tópicos, alguns trechos sobre os componentes estruturais da ontologia
baseada nos FRBR.
4.1 Estrutura de Classes
As Classes e Subclasses de uma ontologia são estruturadas por meio de uma
taxonomia de conceitos, organizados a partir das características essenciais das instâncias
representadas na ontologia e interligadas por relações hierárquicas. A relação de subordinação
is_a (é_um) é a primitiva de estruturação mais utilizada no âmbito da Ciência da Informação e
apresenta-se como uma forma bastante útil para representar a hierarquia de classes de uma
ontologia, pois possibilita uma visão geral da ontologia modelada.
Assim, baseando-se nos princípios classificatórios utilizados na construção dos FRBR
foram especificados os relacionamentos hierárquicos existentes entre classes da ontologia
proposta, de modo que todas as propriedades existentes em uma Classe são herdadas por suas
Subclasses, conforme apresentado na FIGURA 2, a seguir.
3522
FIGURA 2 - Estrutura de Classes e Subclasses da ontologia
Fonte: Elaborado pelos autores
Conforme pode ser observado na figura 2 são apresentadas as classes que representam
as 10 entidades previstas nos FRBR, organizadas em 3 hierarquias que refletem os 3 Grupos
dos FRBR, as Subclasses são especializações das Classes, criadas para agrupar instâncias que
possuem propriedades que não são comuns a todas as instâncias da classe superior, por este
motivo graficamente as Subclasses são representadas como a origem de uma seta única
direcionada para a classe superior.
4.2 Propriedades Descritivas
As propriedades descritivas são utilizadas para descrever as características, atributos
e/ou qualidades das instâncias da ontologia de modo a possibilitar a atribuição de valores
concretos. A utilização de propriedades descritivas aproxima-se do uso dos padrões e
instrumentos da Catalogação.
3523
QUADRO 1 – Propriedades descritivas da Classe Work
Fonte: Adaptado pelos autores com base nos FRBR (INTERNATIONAL FEDERATION OF
LIBRARY ASSOCIATIONS AND INSTITUTIONS, 1998)
Na ontologia desenvolvida as propriedades descritivas representam os atributos das
entidades previstas nos FRBR. O quadro 1 apresenta as principais propriedades descritivas da
classe Work e suas respectivas descrições, por se tratar de um protótipo, com o objetivo de
analisar a possibilidade de utilização dos FRBR como substrato para o desenvolvimento de
ontolgias, não foram representados todos os atributos das entidades.
4.3 Propriedades Relacionais
As Propriedades Relacionais permitem a definição de relacionamentos que vão além
das relações hierárquicas presentes na estrutura de Classes e Subclasses. Essas propriedades
caracterizam-se como relações ônticas e não-hierárquicas, possibilitando maior liberdade para
a representação de relacionamentos entre as instâncias e favorecendo uma representação mais
eficiente. As relações ônticas, segundo Dahlberg (1978), podem ser subdivididas em diversos
tipos, podendo variar de acordo com o contexto. Nesta perspectiva, com vistas a possibilitar
melhor compreensão da ontologia, apresenta-se, na figura 3, a representação gráfica das
classes e das propriedades relacionais da ontologia baseada nos FRBR.
3524
FIGURA 3 - Classes e Propriedades Relacionais da ontologia
Fonte: Elaborado pelos autores
Verifica-se que as propriedades relacionais representam os relacionamentos existentes
entre objetos, sendo necessário indicar a classe origem, a classe destino e o rótulo do
relacionamento, o qual normalmente é definido por meio de verbos (ex.: is, has), ou verbos
preposicionados (ex.: IsRealizadBy).
4.4 Regras e Axiomas
As Regras e Axiomas são enunciados lógicos que possibilitam impor condições,
restrições para a realização de inferências automáticas. Tais componentes apresentam-se como
o principal avanço das ontologias frente aos demais instrumentos de representação.
De acordo com o escopo da ontologia as Regras e Axiomas foram elaborados para
atender às tarefas dos usuários em um ambiente que tem por base os FRBR. Para sua
definição são utilizadas sentenças descritas em Lógica de Primeira Ordem (LPO), conhecida
também como Cálculo de Predicados de Primeira Ordem (CPPO), que possibilitam a definir
formalmente a semântica dos formalismos.
3525
QUADRO 2 – Descrição de Axiomas da ontologia
Descrição de Axiomas
Para cada expressão (Expression) pode haver “n” manifestações (Manifestation)
Para cada obra (Work) pode ter 1 ou mais instâncias do grupo do grupo 2
(Responsible) como responsáveis
Para cada obra (Work) pode haver “n” expressões (Expression)
Para cada manifestação (Manifestation) pode haver “n” itens (Item)
Para cada obra (Work) pode ter um ou mais elementos do grupo 3 (Subject) como
assunto
Cada manifestação (Manifestation) pode ter um ou mais instâncias do grupo 2
(Responsible) como publicadores
Fonte: Elaborado pelos autores
No QUADRO 2 apresentam-se algumas regras implementadas na ontologia, tais
regras consideram aspectos iniciais para a compreensão dos relacionamentos entre as
entidades previstas nos FRBR.
5 CONSIDERAÇÕES FINAIS
A partir do estudo realizado foi possível verificar que as ontologias podem contribuir
para uma melhor estruturação e representação de informações em catálogos bibliográficos
online, possibilitando a realização de inferências automáticas visando facilitar aos usuários a
identificação, seleção e acesso de recursos bibliográficos.
Constatou-se a partir do protótipo desenvolvido que a área de Ciência da Informação
pode contribuir para o desenvolvimento de ontologias, a partir do aproveitamento de métodos
e técnicas para a elaboração de ontologias, tesauros e vocabulários controlados presentes na
literatura da área, favorecendo a aplicação conceitos e relacionamentos previstos nos
Requisitos Funcionais dos Registros Bibliográficos em catálogos bibliográficos online.
O protótipo de ontologia desenvolvido baseou-se nas relações previstas entre as
entidades dos FRBR e mostrou-se como uma alternativa viável para a representação de
3526
informações em meios computacionais, contudo é necessário uma análise ontológica
adequada, em especial na modelagem do Grupo 3 (assunto), onde muitas vezes é considerado
que entidades do Grupo 1 (produto) e entidades do Grupo 2 (responsável) também fazem
parte do Grupo 3, configurando uma modelagem ontológica incorreta. Destaca-se que apenas
as entidades originais do Grupo 3 são subclasses da classe “Subject”, estabelecendo uma
relação hierárquica de subordinação com esta classe. As entidades do Grupo 1 e Grupo 2
estabelecem relações ônticas com a classe “Subject”, representadas a partir de propriedade
relacionais, não estando subordinadas hierarquicamente a esta classe, pois cada um dos
Grupos dos FRBR possuem diferentes critérios de identidade, caracterizando polissemia.
Nesta perspectiva, verifica-se que a utilização de ontologias favorece a transposição
dos métodos convencionais de representação, contribuindo para a realização de inferências
automáticas, como, por exemplo: localizar um termo em diversas fontes de informação,
detectar termos genéricos e equivalentes, eliminar ambiguidades, identificar hipônimos,
categorizar recursos bibliográficos, entre outras.
Assim, as ontologias possibilitam ir além da representação dos aspectos descritivos e
temáticos dos documentos, fornecendo subsídios computacionais que permitem representar os
próprios domínios, favorecendo a recuperação de informações contextualizadas. Deste modo,
as possibilidades profissionais apresentam condições de ampliação por meio da incorporação
de novas potencialidades aos processos de representação, estruturação, disseminação e
recuperação de informações em ambientes digitais.
REFERÊNCIAS
ANSI/NISO. Z39.19 – 2005: Guidelines for the construction, format, and management of
monolingual controlled vocabularies. Bethesda: NISO Press, 2005.
BUSH, V. As we may think. Atlantic Monthly, v. 176, n. 1, p. 101-108, 1945. Disponível em:
<http://www.theatlantic.com/ magazine/archive/1969/12/as-we-may-think/ 3881/>. Acesso
em: 10 jun. 2014.
CAMPOS, M. L. A.; GOMES, H. E. Metodologia de elaboração de tesauro conceitual: a
categorização como princípio norteador. Perspectivas em Ciência da Informação, Belo
Horizonte, v. 11, n. 3, set/dez. 2006. Disponível
em: <http://www.eci.ufmg.br/pcionline/index.php/pci/article/viewFile/273>. Acesso em: 20
jun. 2014.
DABROWSKI, M; SYNAK, M.; KRUK, S. R. Bibliographic Ontology. In: KRUK;
MCDANIEL (Eds.). Semantic Digital Libraries. Berlin: Springer, 2009.
DAHLBERG, I. Ontical structures and universal classification. Bangalore: Sarada
Ranganathan Endowment, 1978.
3527
FÉRNANDEZ, M.; GÓMEZ-PÉREZ, A.; JURISTO, N. Methontology: From Ontological
Art Towards Ontological Engineering. Palo Alto: Association for the Advancement of
Artificial Intelligence, 1997. AAAI Technical Report SS-97-06. Disponível
em: <http://oa.upm.es/5484/1/METHONTOLOGY_.pdf>. Acesso em: 20 jun. 2014.
GARCÍA MARCO, F. J. Ontologías y organización del conocimiento: retos y oportunidades
para el profesional de la información. El profesional de la información, v. 16, n. 6, p. 541550, Nov.-Dic. 2007. Disponível em:
<http://www.elprofesionaldelainformacion.com/contenidos/2007/noviembre/01.pdf>. Acesso
em: 10 jan. 2014.
GIL, A. C. Como elaborar projetos de pesquisa. 4. ed. São Paulo: Atlas, 2007.
GOMES, H. E. et al. Manual de elaboração de tesauros monolíngues. Brasília:
CNPq/PNBU, 1990.
GRUBER, T. R. Toward principles for the design of ontologies used for knowledge sharing.
In: GUARINO, N.; POLI, R. (Org.). Formal Ontology in Conceptual Analysis and
Knowledge Representation. [s.l.]: Kluwer Academic Publishers, 1993. Disponível
em: <http://pdf.aminer.org/000/912/413/toward_principles_for_the_design_of_ontologies_us
ed_for_knowledge.pdf>. Acesso em: 29 jun. 2014.
GUARINO, N. Formal Ontology and Information Systems. [Vilnius]: Vilnius University
Faculty of Mathematics and Informatics, 1998. Disponível
em: <http://uosis.mif.vu.lt/~donatas/Vadovavimas/Temos/OntologiskaiTeisingasKoncepcinis
Modeliavimas/papildoma/Guarino98Formal%20Ontology%20and%20Information%20Systems.pdf>. Acesso em: 26 jul. 2014.
Amended version of a paper appeared in N. Guarino (ed.), Formal Ontology in Information
Systems. Proceedings of FOIS’98, Trento, Italy, 6-8 June 1998. Amsterdam, IOS Press, pp. 315.
INTERNATIONAL FEDERATION OF LIBRARY ASSOCIATIONS AND
INSTITUTIONS. Declaração de princípios internacionais de catalogação. [Haia]: IFLA,
2009. Disponível em: <http://www.ifla.org/files/cataloguing/icp/icp_2009-pt.pdf>. Acesso
em: 20 jun. 2011.
INTERNATIONAL FEDERATION OF LIBRARY ASSOCIATIONS AND
INSTITUTIONS. Functional requirements for bibliographic records: final report. [Haia]:
IFLA, 1998. Disponível em: <http://archive.ifla.org/archive/VII/s13/frbr/frbr_2008.pdf>.
Acesso em: 20 jun. 2011. Aprovado pelo Standing Committee of the IFLA Section on
Cataloguing em setembro de 1997 e alterado e corrigido até fevereiro de 2009.
INTERNATIONAL FEDERATION OF LIBRARY ASSOCIATIONS AND
INSTITUTIONS. Guidelines for Online Public Access Catalogue (OPAC) displays: final
report: may 2005. München: K. G. Saur, 2005. Recommended by the Task Force
on Guidelines for OPAC Displays. Approved by the Standing Committee of the IFLA
Cataloguing Section.
NOY, N. F.; MCGUINESS, D. L. Ontology development 101: a guide to creating your first
ontology. Stanford: Standford University, [2001?]. Disponível em:
<http://www.ksl.stanford.edu/people/dlm/papers/ontology101/ontology101-noymcguinness.html>. Acesso em: 20 fev. 2014.
3528
RAMALHO, R. A. S. Desenvolvimento e utilização de ontologias em bibliotecas digitais:
uma proposta de aplicação. 2010. 145f. Tese (Doutorado em Ciência da Informação) Faculdade de Filosofia e Ciências, Universidade Estadual Paulista, Marília, 2012.
RAMALHO, R. A. S.; FUJITA, M. S. L. Aplicabilidad de ontologías en bibliotecas digitales.
Anales de Documentación, v. 14, n. 1, 2011. Disponível em:
<http://revistas.um.es/analesdoc/article/view/120161>. Acesso em: 12 mar. 2014.
RANGANATHAN, S. R. As cinco leis da biblioteconomia. Brasília: Briquet de Lemos,
2009.
SANTOS, M. T.; CORREA, R. F.; SILVEIRA, M. A. A. Estudos brasileiros sobre ontologia
na Ciência da Informação. Datagramazero, v. 14, n. 1, 2013. Disponível em:
<http://www.dgz.org.br/fev13/Art_05.htm>. Acesso em: 20 jun. 2014.
SANTOS, P. L. V. A. C.; CORRÊA, R. M. R. Catalogação: trajetória para um código
internacional. Niterói: Intertexto, 2009.
SILVEIRA, D. T.; CÓRDOVA, F. P. A pesquisa científica. In: GERHARDT, T. E.;
SILVEIRA, D. T. (Org.). Métodos de pesquisa. Porto Alegre: Editora da UFRGS, 2009.
SOERGEL, D. The rise of ontologies or the reinvention of classification. Journal of the
American Society for Information Science, v. 50, n. 12, p. 1119-1120, Oct. 1999.
Disponível em: <http://www.dsoergel.com/cv/B70.pdf>. Acesso em: 10 jan. 2014.
SVENONIUS, E. The Intellectual Foundation of Information Organization. Cambridge: MIT
Press, 2000.
TRIVIÑOS, A. N. S. Introdução à pesquisa em ciências sociais: a pesquisa qualitativa em
educação. São Paulo: Atlas, 1987.
USCHOLD, M.; GRUNINGER M. Ontologies: principles, methods and applications. The
Knowledge Engineering Review, v. 11, n. 2, p. 93-136, 1996.
USCHOLD, M.; KING, M. Towards a Methodology for Building Ontologies. In: IJCAI-95:
Workshop on Basic Ontological Issues in Knowledge Sharing, 1995, Montreal, Canada.
Proceedings. 1995. Disponível
em: <http://www1.cs.unicam.it/insegnamenti/reti_2008/Readings/Uschold95.pdf>. Acesso
em: 20 jun. 2014.
VICKERY, B. C. Ontologies. Journal of Information Science, v. 23, n. 4, p. 277–286, 1997.
ZAFALON, Z. R. Saussure e a representação da informação como um dos modos de
comunicação para e com usuários de instituições de patrimônio cultural. In: BOCCATO, V.
R.C.; GRACIOSO, L. S. (Org.). Estudos de linguagem em ciência da informação.
Campinas: Alínea, 2011.
ZAFALON, Z. R. Scan for MARC: princípios sintáticos e semânticos de registros
bibliográficos aplicados à conversão de dados analógicos para o Formato MARC21
Bibliográfico. 2012. 170f. Tese (Doutorado em Ciência da Informação) - Faculdade de
Filosofia e Ciências, Universidade Estadual Paulista, Marília, 2012.
ZAFALON, Z. R. Simbiose entre catalogação e recursos tecnológicos: associações entre
Ciência da Informação e Linguística pelo viés dos registros bibliográficos automatizados. In:
3529
ENCONTRO NACIONAL DE PESQUISA EM CIÊNCIA DA INFORMAÇÃO, 14.,
2013, Florianópolis. [Anais eletrônicos]. 2013. Disponível em:
<http://enancib2013.ufsc.br/index.php/enancib2013/XIVenancib/paper/download/496/32>.
Acesso em: 20 maio 2014.
ZHAO, Y; HU, C. An Ontology-based Framework for Knowledge Service in Digital Library.
In: INTERNATIONAL CONFERENCE ON WIRELESS COMMUNICATIONS,
NETWORKING AND MOBILE COMPUTING, 2007, Shangai. Proceedings... Palo Alto:
IEEE, 2007. p. 5345-5348.
3530
AVALIAÇÃO DO ACESSO E VISUALIZAÇÃO DA INFORMAÇÃO EM
REPOSITÓRIOS INSTITUCIONAIS
EVALUATION OF ACCESS AND VISUALIZATION INFORMATION IN INSTITUTIONAL
REPOSITORIES
Sandra de Albuquerque Siebra
Júccia Nathielle do Nascimento Oliveira
Resumo: A ideia do Repositório Institucional como dispositivo de memória acadêmica surgiu
da necessidade de garantir a preservação de publicações, favorecer o intercâmbio de
informações e para dar visibilidade à produção das instituições, aos seus pesquisadores e
órgãos de fomento. Porém, a divulgação da produção científica só se efetiva se a informação
for disseminada por uma rede de comunicação eficaz e que propicie fácil acesso, visualização
e uso dos diversos artefatos disponibilizados. Neste cenário, essa pesquisa objetivou
investigar como os pressupostos teóricos e pragmáticos da Arquitetura, Acessibilidade e
Usabilidade da Informação estão sendo utilizados visando facilitar o acesso, busca e
visualização de informações em Repositórios Institucionais. Em termos metodológicos esta
pesquisa é descritiva e bibliográfica. Além de ser uma investigação experimental, que faz uso
do método de estudos de casos múltiplos, onde cada repositório é analisado separadamente e
os resultados finais são comparados. Com relação a abordagem de análise dos dados, esta
pesquisa se caracteriza como qualitativa e quantitativa. O universo da pesquisa engloba os
repositórios institucionais das universidades brasileiras, mas para efetivação da pesquisa
tomou-se como amostra um repositório institucional por capital brasileira. O resultado da
avaliação mostrou que uma parte das universidades ou não tem repositório institucional ou
possui problemas em manter ativo o repositório existente, visto que alguns repositórios
passam períodos indisponíveis. Os repositórios ativos apresentam problemas de usabilidade e
de interação com o usuário, especialmente no que concerne a funcionalidade de busca, uma
das mais importantes nesse tipo de sistema. Além de apresentarem alguns caminhos confusos
na navegação até chegar a localização de um documento. Essa pesquisa possibilita uma visão
mais global de como os repositórios brasileiros estão promovendo o acesso a informação e a
interação com os usuários.
Palavras-chave: Repositório Institucional. Usabilidade. Arquitetura da Informação.
Acessibilidade.
Abstract: The idea of the Institutional Repository as academic memory device arose from the
need to ensure the preservation of publications, promote the exchange of information and to
give visibility to the production of the institutions, their researchers and funding agencies.
However, the dissemination of scientific production is only effective if the information is
disseminated by an effective communication network that provides easy access, display and
use of the various artifacts available. In this scenario, this research aimed to investigate how
the theoretical and pragmatic assumptions of Architecture, Accessibility and Usability of
information are being used to facilitate access, search and visualization of information in
Institutional Repositories. Methodologically this research is descriptive and bibliographical.
Besides being an experimental research that makes use of the method of multiple case studies
where each repository is analyzed separately and the final results are compared. With respect
to data analysis approach, this research is characterized as qualitative and quantitative. The
research encompasses institutional repositories of Brazilian universities, but to execute the
research was taken as sample an institutional repository by each Brazilian capital. The
evaluation result showed that some of the universities or do not have an institutional
3531
repository or has problems maintaining the existing repository active, since they occasionally
become unavailable. Assets repositories have usability and user interaction problems,
especially regarding search functionality, one of the most important in this type of system.
Besides having some confusing navigation paths to reach the location of a document. This
research enables a more global view of how the Brazilians repositories are promoting access
to information and interaction with its users.
Keywords: Institutional Repository. Usability. Information Architecture. Accessibility.
1 INTRODUÇÃO
Nos últimos anos a produção científica cresceu substancialmente e esse crescimento
tem contribuído para o desenvolvimento da ciência e proporcionado a disseminação do
conhecimento pelas diversas áreas científicas. Ressalta-se que a comunicação da produção
científica, de fato só se efetiva se a informação for disseminada por uma rede de comunicação
eficaz, que propicie o acesso democrático e facilidades para visualização e uso dos diversos
artefatos produzidos. O acesso livre e democrático traduz a disponibilização pública na
Internet, de forma a permitir que o usuário possa ler, realizar download, fazer cópia, distribuir
e imprimir textos científicos completos, sem custo associado.
Porém, o acesso democrático ao conhecimento produzido pelas instituições científicas
tem se tornado complexo em função do alto custo de produção e aquisição dos periódicos
onde, em geral, o conhecimento produzido é divulgado. Assim, inseridos na dinâmica do
movimento de acesso livre à informação, surgiram os repositórios institucionais (RI). Eles
reúnem toda a produção científica e/ou acadêmica de uma instituição produzida em formato
digital ou digitalizada. Os RI constituem uma inovação no âmbito da comunicação científica e
no modo como a informação resultante das atividades acadêmicas e científicas é gerenciada e
disponibilizada em rede. É uma iniciativa que constrói as condições necessárias para permitir
o acesso livre à produção científica de forma legítima, como também é uma alternativa para
guarda e visualização da memória de uma instituição, alterando seu processo de produção,
disseminação e uso da informação (BLATTMAN; BOMFÁ, 2006).
Porém, ao se visitar Repositórios Institucionais diferentes é possível perceber uma
diversidade de interfaces de comunicação com os usuários e de identidade visual. Porém, é
possível perceber, também,
problemas bem semelhantes tais como: uso inadequado de
vocabulário, conteúdos redundantes, falta de opções de personalização e problemas de
acessibilidade da informação. Assim, neste contexto, esta pesquisa objetivou investigar como
os pressupostos teóricos e pragmáticos da Arquitetura, Acessibilidade e Usabilidade da
Informação podem contribuir para aprimorar a navegação, acesso, busca e visualização de
informações em Repositórios Institucionais.
3532
Esta pesquisa pode contribuir para que seja facilitado o acesso à informação para a
comunidade em geral, de forma democrática e independente de limitações. Promovendo,
assim, a divulgação da produção científica das instituições através de seus repositórios
institucionais Adicionalmente, esta pesquisa pode colaborar com os pressupostos do acesso
livre a informação e do movimento do acesso aberto (MUELLER, 2006)
2 REPOSITÓRIO INSTITUCIONAL
Para Viana e colegas (2005), um repositório digital é uma forma de armazenamento de
objetos digitais que tem a capacidade de manter e gerenciar materiais por longos períodos de
tempo e prover o acesso apropriado a esses materiais. Em outras palavras, repositórios digitais
(RDs) são bases de dados online que reúnem, de maneira organizada, a produção científica,
em diversos formatos, de uma instituição (repositórios institucionais) ou área temática
(repositórios temáticos) (IBICT, 2014).
Dessa forma, os repositórios institucionais, foco desta pesquisa, podem melhorar a
comunicação científica e o avanço da pesquisa científica por permitir aos usuários localizarem
e recuperarem informações relevantes de forma rápida e fácil. (MEDINA, 2006). Porém,
trazem a responsabilidade para a instituição de exercer o controle sobre sua produção
intelectual, tornando-a acessível e facilmente recuperável, além de garantir a preservação de
seu conteúdo (MEDINA, 2006).
3 USABILIDADE
Segundo a norma ISO/IEC 9126 (2001, p.9), "usabilidade refere-se à capacidade de
uma aplicação ser compreendida, aprendida, utilizada e agradável/atraente para o usuário, em
condições específicas de utilização”. E, ainda defende que usabilidade é a eficiência e
satisfação com que um produto permite atingir objetivos específicos de utilizadores
específicos em um contexto de utilização específico (ABNT, 2002). Sendo assim, uma
característica relevante para qualquer sistema interativo.
Para realizar a avaliação de usabilidade em sistemas interativos, podem ser usados
critérios e recomendações tais como: os requisitos não funcionais de usabilidade
(PRESSMAN, 2004); as oito regras de Ouro para o aprimoramento da interação de Ben
Shneiderman (SHNEIDERMAN; PLAISANT, 2004); os Critérios Ergonômicos de Bastien e
Scapin (1993); os Princípios de Diálogo da norma NBR NBR 9241-11:2002 (ABNT, 2002)
ou as dez Heurísticas de Nielsen (1993; 1999). Essa última por ser uma das formas de
avaliação mais utilizadas e reconhecidas (WINCKLER; PIMENTA, 2002) e ser a adotada
para realização desta pesquisa, será descrita a seguir (NIELSEN 1993; 1999):
3533
Visibilidade - o sistema deve informar continuamente ao usuário sobre o status da
execução de operações e funcionalidades;
Compatibilidade entre o sistema e o mundo real- as informações devem ser
organizadas conforme o modelo mental do usuário;
Controle e liberdade para o usuário- o usuário deve controlar o sistema. Ele deve
poder, a qualquer momento, cancelar uma tarefa, desfazer uma operação e retornar ao estado
anterior ou retornar a um caminho anterior de navegação;
Consistência e padrões- a mesma operação deve ser apresentada na mesma
localização e deve ser formatada/apresentada da mesma maneira em diferentes telas, para
facilitar o reconhecimento. Adicionalmente, deve-se adotar um padrão de distribuição de
elementos visuais e de nomenclatura;
Prevenção de erros – dar subsídios (usar recursos ou oferecer mensagens) aos
usuários para contornar erros cometidos e evitar que novos erros ocorram;
Reconhecimento em lugar de lembrança- o sistema deve mostrar os elementos de
diálogo e permitir que o usuário faça suas escolhas, sem a necessidade de lembrar um
comando específico;
Flexibilidade e eficiência de uso – é preciso ter formas diversificadas de realizar a
mesma operação (ex: por ícone, por opção de menu, por teclas de função);
Projeto minimalista e estético - deve-se apresentar exatamente a informação que o
usuário precisa no momento, evitando sobrecarga informacional;
Auxiliar os usuários a reconhecer, diagnosticar e recuperar erros – deve ser
possível para o usuário entender e resolver o problema que ocasionou o erro e
Ajuda e documentação – o sistema deve oferecer ajuda on-line para orientar o
usuário na realização de operações.
4 ARQUITETURA DA INFORMAÇÃO
Camargo (2010) defende que a Arquitetura da Informação (AI) é um campo que
oferece subsídios teóricos e metodológicos adequados para o desenvolvimento de ambientes
informacionais digitais mais funcionais e focados nos usuários.
3534
Em uma abordagem sistêmica a AI é a combinação de quatro subsistemas (QUADRO
1): organização ou estruturação, rotulagem ou representação124, busca ou recuperação e
navegação SIN, 2009).
QUADRO 1 – Repositórios das Universidades da Amostra
SUBSISTEMAS
Sistema de Organização
DEFINIÇÃO
Define o agrupamento e a categorização de todo o conteúdo
informacional.
Sistema de Navegação
Especifica as maneiras de navegar, de se mover pelo espaço
informacional e hipertextual. Sua função é indicar ao usuário sua
localização e os caminhos que podem ser percorridos para chegar ao
seu destino final. Nielsen e Loranger (2007) defendem que um bom
sistema de navegação precisa responder a 3 perguntas básicas: Onde
estou? Onde estive? Aonde posso ir?
Sistema de Rotulação
Estabelece as formas de representação, de apresentação, da
informação definindo signos para cada elemento informativo.
Sistema de Busca
Determina as perguntas que o usuário pode fazer e o conjunto de
respostas que irá obter.
Fonte: (MORVILLE; ROSENFELD, 2007, adaptado).
5 ACESSIBILIDADE
Acessibilidade refere-se à transposição de barreiras. Aplicada à Internet isto significa a
eliminação de quaisquer obstáculos que impossibilitem ou dificultem o acesso das pessoas
com deficiência, ao mesmo tempo em que pode beneficiar pessoas sem limitação (ex: idosos).
Acessibilidade da informação digital faz referência a garantia de acesso a informação a
qualquer tipo de usuário. Torres, Mazzoni e Alves (2002, p.3) afirmam que:
A acessibilidade no espaço digital consiste em tornar disponível ao usuário, de forma
autônoma, toda a informação que lhe for franqueável, independentemente de suas
características corporais, sem prejuízos quanto ao conteúdo da informação. É forma de
democratizar o acesso à informação e de proporcionar a inclusão digital, fazendo com que as
informações armazenadas em contextos digitais se torne disponível para toda e qualquer
pessoa, independente de limitação.
Porém, na prática, a acessibilidade na web e em sistemas interativos ainda é deficiente,
prejudicando a inclusão digital e o acesso à informação para as pessoas com deficiência.
Para avaliação de acessibilidade podem ser usados softwares denominados validadores
automáticos. Validadores são softwares que pesquisam o código fonte do site que se quer
124
Camargo e Vidotti (2003) compreendem como sistemas de representação a aplicação de
metadados, vocabulários controlados e tesauros nos ambientes informacionais digitais.
3535
validar e emitem um relatório contendo os erros e avisos de acordo com as Diretrizes de
Acessibilidade desenvolvidas pela W3C – World Wide Web Consortium2. Uma delas é o
WCAG 1 ou Recomendações para a acessibilidade do conteúdo da Web versão 1. Os erros e
avisos identificados nos sites são classificados de acordo com o nível de prioridade: 1 –
prioridades que devem ser satisfeitas inteiramente, pois impossibilitam o acesso à informação;
2 – prioridades que deveriam ser satisfeitas, pois causam dificuldades a usuários ou grupo
deles e 3 – prioridades que poderiam ser satisfeitas, pois vão causar desconforto ou alguma
dificuldade a alguns usuários ou grupo deles. Os validadores não dispensam a verificação
humana e seu foco está mais voltado para questões relacionadas à deficiência visual, mas
podem contribuir de maneira significativa para a avaliação de acessibilidade dos conteúdos da
internet. Dois exemplos de validadores são o DaSilva (http://www.dasilva.org.br/) e o Hera
(http://www.sidar.org/hera/index.php.pt).
6 METODOLOGIA
Quanto aos objetivos, esta pesquisa tem caráter descritivo. Segundo Gil (2008) as
pesquisas descritivas possuem como objetivo a descrição das características de uma
população, fenômeno ou de uma experiência. Quanto à fonte de dados pode-se considerar esta
pesquisa como bibliográfica. Para Marconi e Lakatos (2007), a pesquisa bibliográfica oferece
meios para definir, resolver, não somente problemas já conhecidos, como também explorar
novas áreas onde os problemas não se cristalizam suficientemente, tendo como objetivo
permitir ao pesquisador um reforço na análise de suas pesquisas ou manipulação de suas
informações. A pesquisa envolve o método de estudos de casos múltiplos (GIL, 2008), pois
cada repositório foi analisado isoladamente, a fim de ajudar a alcançar os objetivos da
pesquisa. Inclusive fazendo o levantamento dos elementos sistêmicos de cada um dos
repositórios, traçando dessa forma seu perfil. Considerando as abordagens de análise dos
dados, esta pesquisa se caracteriza como quantitativa e qualitativa (GIL, 2008).
O universo da pesquisa são todos os repositórios institucionais das Universidades
Federais Brasileiras. E, para efetiva realização da pesquisa, foram selecionados, de forma
aleatória, apenas um repositório de Universidade por cada capital brasileira. Assim, como
amostra, foram selecionados 27 (vinte e sete) repositórios institucionais de universidades
brasileiras (QUADRO 2). A decisão por avaliar os repositórios das Universidades Federais se
deu por estas serem instituições mantidas com dinheiro público, sendo assim direito da
sociedade ter acesso à produção científica e acadêmica delas.
3536
QUADRO 2 – Repositórios das Universidades da Amostra
REGIÃO
NORDESTE
NORTE
CENTRO OESTE
SUDESTE
SUL
INSTITUIÇÃO
(SIGLA)
UFAL
http://www.repositorio.ufal.br
UFBA
http://www.repositorio.ufba.br/ri
UFC
http://www.repositorio.ufc.br:8080/ri/
UFMA
UFRN
UFPE
UFPB
UFS
UFAC
UFPA
UFMS
UFMG
http://www.repositorio.ufma.br:8080/jspui/
http://repositorio.ufrn.br:8080/jspui/
http://www.repositorio.ufpe.br/
http://rei.biblioteca.ufpb.br/jspui/
http://www.repositorio.biblioteca.ufs.br/
http://repositorios.ufac.br:8080/repositorio/
http://www.repositorio.ufpa.br/jspui/
http://repositorio.cbc.ufms.br:8080/jspui/
https://dspaceprod02.grude.ufmg.br/dspace/
http://www.bibliotecadigital.ufmg.br/dspace/
http://repositorio.ufes.br/
http://repositorio.ufsc.br/
http://dspace.c3sl.ufpr.br/dspace/
http://www.lume.ufrgs.br/
UFES
UFSC
UFPR
UFRGS
ENDEREÇO DO RI
Fonte: Os autores, 2014.
Para alcançar os objetivos deste trabalho, em cada repositório foi primeiro realizada a
avaliação de usabilidade segundo as Heurísticas de Nielsen (NIELSEN, 1993;1999). Depois,
foram avaliados os subsistemas da arquitetura da informação, com base nos seguintes
questionamentos:
Sistema de Organização
1) As informações disponibilizadas no repositório estão categorizadas ou classificadas
em grupos (assunto, tema, tipo, ordem alfabética)?
2) O repositório apresenta documentos que são classificados em mais de uma categoria
de classificação?
3) O site apresenta uma boa organização geral? (agradável de se ver e se usar)
Sistema de Navegação
1) O sistema de navegação responde as três perguntas básicas: Onde estive? Onde
estou? Onde posso ir? (NIELSEN; LORANGER, 2007).
2) A navegação é simples (não se usam muitos cliques para se alcançar uma
funcionalidade)?
4) São oferecidos recursos de internacionalização (ex: mudança de idioma)?
3537
Sistemas de Rotulagem
1) A simbologia utilizada nos ícones representam adequadamente as funcionalidades
oferecidas?
2) As nomenclaturas (vocabulário) e símbolos utilizados estão adequados ao público
alvo?
Sistema de Busca
1) O sistema oferece busca? Se sim: que recursos são oferecidos na página de
resultados (Ex: sugestão de palavras, paginação, ordenação dos resultados)
2) Existe busca avançada? Nela é feito uso de operadores booleanos?
Finalmente, para a avaliação de acessibilidade foram utilizados 2 validadores de
acessibilidade: o DASilva e o HERA. Para isso, acessou-se o referido site e, posteriormente,
digitou-se o endereço do URL de cada site a ser avaliado. Usou-se o padrão de avaliação
WCAG 1.0. Adicionalmente, foi analisado, visualmente pelas pesquisadoras, se o site possuía
algum recurso dos seguintes recursos relacionado à acessibilidade: aumento/diminuição do
tamanho da fonte, possibilidade de mudança de cores e modificação do contraste.
As avaliações foram realizadas no período de fevereiro a junho de 2014, por três
pesquisadores isoladamente, depois os pesquisadores se reuniram para discutir os resultados
obtidos.
7 RESULTADOS E DISCUSSÕES
Para organização da apresentação dos resultados, eles foram subdivididos em 4
subseções: a primeira tratando de observações gerais sobre os repositórios da amostra e as
seguintes abordando, em sequencia, as avaliações de usabilidade, arquitetura da informação e
acessibilidade.
3.1 Avaliação Geral dos Repositórios
A partir do levantamento dos repositórios institucionais (RIs) da amostra feito no
QUADRO 2, ao acessar cada repositório, no período da avaliação, foi possível perceber que
das 9 Unidades da Federação do Nordeste, apenas 1 não possui RI: a Universidade Federal do
Piauí (UFPI). Na região Norte, das 7 instituições existentes, apenas 2 possuem repositórios: a
Universidade Federal do Acre (UFAC) e a Universidade Federal do Pará (UFPA) e na região
Centro-oeste apenas a Universidade Federal do Mato Grosso do Sul (UFMS). Na região
Sudeste, das 4 IES, apenas a Universidade Federal de Minas Gerais (UFMG) e a Universidade
Federal do Espírito Santo (UFES) tem RIs e na região Sul todas as IES, Universidade Federal
3538
do Paraná, Universidade Federal de Santa Catarina e a Universidade Federal do Rio Grande
do Sul (UFPR, UFSC e UFRGS), possuem RI.
Vale ressaltar que os repositórios da Universidade Federal de Pernambuco (UFPE) e
da Universidade Federal da Paraíba (UFPB) não estavam disponíveis durante o período da
avaliação. Os dados referentes a esses dois repositórios foram acrescentados em período
posterior (setembro/2014). Além disso, durante a maior parte do desenvolvimento da
avaliação, verificou-se instabilidades em alguns repositórios: o RI da UFMA estava no ar,
mas não estava funcionando, voltando a funcionar apenas a partir do início de março/2014. O
RI da UFAC tornou-se indisponível (saiu do ar) e não mais se tornou disponível durante todo
o período de avaliação ou da produção deste artigo. O RI da UFS esteve no ar até o mês de
fevereiro/2014, depois saiu do ar e ficou inacessível, voltando a entrar no ar na segunda
quinzena de abril/2014. O RI da UFMS apresentou instabilidades diárias, acompanhadas
durante o período da avaliação e, em junho/2014, houve vários dias que o RI não estava no ar.
Para fazer um reconhecimento dos repositórios, como funcionam e como estão
organizados, foi feito, inicialmente, o acesso a cada repositório, simuladas buscas, além de ser
feita navegação pela diversidade de acervos disponíveis. Também se buscou informação sobre
o repositório e a equipe responsável por ele que, em sua maioria, era multidisciplinar. O
GRÁFICO 1 apresenta a quantidade total de arquivos depositados nos Repositórios
Institucionais analisados, onde se destacam o repositório da UFRGS e da UFSC.
Dentre os arquivos depositados nos repositórios destacam-se trabalhos apresentados
em eventos/congressos, livros e capítulos de livros, artigos, Trabalhos de Conclusão de Curso
(TCC), Dissertações e Teses, sendo os três últimos tipos os mais frequentemente encontrados.
Todos os repositórios foram criados fazendo uso do software DSPACE e, talvez por
causa disso, possuem design muito similar e apresentam todos praticamente os mesmos
problemas, como poderá ser visualizado nas subseções a seguir.
3539
GRÁFICO 1 – Quantidade de Arquivos dos RIs das Universidades da Amostra
Fonte: (OPENDOAR, @2006-2014, adaptado)
Legenda: Dados levantados em 13/09/2014
3.1 Avaliação de Usabilidade
Com os perfis dos repositórios traçados, cada repositório foi visitado e avaliado
segundo as Heurísticas de Nielsen, destacando pontos fortes e fracos que os repositórios
possuíam relacionados a cada heurística. Os resultados da avaliação de usabilidade nos
repositórios pode ser visualizada no QUADRO 3. Na avaliação foi gerado um quadro para
cada repositório. Porém, aqui, por questões de espaço e pelo fato de que os resultados das
avaliações terem sido bem parecidos na maioria dos repositórios, a avaliação de usabilidade
foi sumarizada em um único quadro.
QUADRO 3 – Sumarização da Avaliação de Usabilidade nos Repositórios da Amostra
Nº
CRITÉRIO
PONTO(S) FORTE(S)
PONTO(S) FRACO(S)
1
Visibilidade do
estado do sistema
Carregamento da página inicial é
rápido. As opções do que pode ser
feito estão visíveis.
2
Mapeamento
entre o sistema e
o mundo real
A nomenclatura utilizada é clara.
Em vários repositórios não é dado
feedback quando alguma operação é
realizada. Ex: busca.
Nenhum dos menus ou submenus possuem
equivalentes iconográficos.
Liberdade e
controle do
usuário
A qualquer momento o usuário
consegue voltar para a página
inicial, como também escolher
outra opção de busca, uma vez
que os menus se apresentam
sempre visíveis. Nos resultados
da busca, o usuário tem liberdade
para optar pela exibição dos
resultados: por relevância, data ou
título.
A maioria das coleções/acervos
são organizados, em geral, por
Na hora de fazer o download do arquivo
encontrado é necessário primeiro abrir o
documento, tornando o processo de
download mais demorado.
Na maioria dos repositórios, não há como
navegar entre os documentos existentes
em uma coleção/acervo. Se começa
navegando ao escolher o centro/acervo,
depois, obrigatoriamente, uma busca deve
ser utilizada.
Quando o usuário opta por uma busca que
não seja pelas “Comunidades e Coleções”
3
4
Consistência e
padrões
3540
Nº
5
6
7
CRITÉRIO
PONTO(S) FORTE(S)
PONTO(S) FRACO(S)
seu centro/departamento de
origem.
os RIs apresentam o caminho até o
documento (“migalhas de pão”) diferente
do que foi percorrido pelo usuário,
confundido e retardando a navegação.
A maioria dos RIs quando são
visualizados em um idioma que não o
português, há opções de menu que
desaparecem e nem todo o texto dos
menus é traduzido, ficando uma mistura de
idiomas confusa. Talvez por fazerem uso
de tradução automática.
Na busca por data não é indicado o
formato do ano.
Na grande maioria dos RIs, quando um
documento é cadastrado, não é verificado
se o autor já existe na base de dados. Isso
ocasiona que o mesmo autor possa ser
cadastrado diversas vezes, devido a
digitação diferente do seu nome (ex: uso
de abreviatura, espaçamento, ponto). Isso
tornará difícil e imprecisa a busca por
autor.
A utilização de ícones ajudaria o usuário a
reconhecer o lugar, facilitando a
navegação sempre que ele voltasse ao
ambiente.
Não há a possibilidade de utilização de
teclas de atalho.
Não é possível navegar pelos repositórios
fazendo uso exclusivo do teclado. A
manipulação da tecla TAB não está bem
configurada.
Não é possível navegar pelos documentos
de um acervo/centro específico, sem
passar por uma busca.
O design da maioria dos repositórios é
pouco atraente (uso do design padrão da
ferramenta DSPACE).
Prevenção de
erros
Reconhecer em
vez de relembrar
Flexibilidade e
eficiência de uso
A estrutura de menus facilita o
reconhecimento das opções
disponíveis para navegação.
Os documentos podem ser
localizados pela busca ou pelas
opções de visualização
disponíveis (por data de
publicação, autor, título ou
assunto).
8
Design estético e
minimalista
Na maioria, o design é
minimalista e bastante similar.
9
Suporte para o
usuário
reconhecer,
diagnosticar e
recuperar erros
Não foi possível avaliar esse item.
10
Ajuda e
documentação
Alguns poucos repositórios
disponibilizam arquivos com
informações para utilização.
Na maioria dos repositórios não existe
ajuda disponível para o usuário sobre
como fazer uso do repositório. O que há
disponível é a ajuda padrão do DSpace e
informações sobre esse software e apenas
no idioma inglês.
Fonte: Os autores, 2014.
Para ilustrar alguns pontos, destacamos alguns exemplos de problemas encontrados.
Com relação a heurística 2 – mapeamento entre o sistema e o mundo real, para alcançá-la é
3541
preciso que o repositório esteja adequado ao seu contexto de uso e ao seu público alvo. Neste
sentido, o repositório da UFPR acaba por não atender a esta heurística porque está no idioma
inglês, apenas com links e algumas poucas informações em português, acabando por mesclar
os idiomas, tornando-se confuso para seu público alvo.
Com reação à heurística 4 – consistência e padrões, em alguns RIs, como no da UFRN
(FIGURA 1), não há padronização no formato da data na apresentação dos resultados da
busca.
FIGURA 1 – Exemplo de falta de consistência na apresentação da data de publicação dos
documentos no RI da UFRN
Fonte: (UFRN, [2010])
Legenda: Dados levantados em Maio de 2014
Com relação à heurística 5 – prevenção de erros, na grande maioria dos RIs, como por
exemplo nos da UFRN, UFC e UFS (FIGURA 2), não é evitado um cadastro repetido de
autor, ocasionando duplicações diversas.
FIGURA 2 – Exemplos de problema com replicação do nome de um mesmo autor nos RIs da
UFRN e da UFC
Fonte: (UFRN, [2010]; UFC, [2011])
Legenda: Dados levantados em Maio de 2014
3542
Referente à heurística 8 – design estético e minimalista, os RIs com design mais
aprimorado são os da UFRGS e o da UFMG, pois possuem uma tentativa de se diferenciarem
dos demais.
3.2 Avaliação de Arquitetura da Informação (AI)
A organização geral dos repositórios analisados é praticamente a mesma, assim como
a ordem dos menus, com poucas variações. Talvez porque todos utilizem o software DSPACE
e as pessoas responsáveis pelos repositórios tenham tido as mesmas orientações para criação
deles, fornecida pelo IBICT (Instituto Brasileiro de Informação em Ciência e Tecnologia). Os
três repositórios que apresentam uma personalização maior e uma mudança na disposição dos
elementos na tela são os da UFPA, UFRGS, UFMG e da UFMA. O restante da avaliação da
AI foi feita com base nos seus sistemas.
No tocante ao subsistema de organização temos que os repositórios organizam seu
conteúdo em acervos nomeados, na maioria, com o nome dos centros, departamentos, escolas,
faculdades ou unidades organizacionais da instituição (ex: pró-reitorias) e a disposição destes
é em ordem alfabética. O menu lateral da maioria dos repositórios analisados, às vezes, se
tornam confusos, pois tanto incluem links que levam a informação, como incluem formas de
visualização dos acervos (ex: Por Assunto, Autor, Tipos de Documento, etc).
Todos os repositórios possuem algum tipo de replicação de documento em categorias
diferentes. Por exemplo, no acervo de um centro encontra-se a tese de um professor e na
BDTD também há a mesma tese. O que não representa um problema, pois é uma forma de
tornar o documento mais fácil de localizar. Não foi possível verificar se são apenas dois links
(duas formas de acesso) para o mesmo documento ou se o documento está realmente
duplicado dentro do repositório. Em alguns repositórios há documentos replicados em mais de
dois acervos.
Uma observação pertinente é sobre a organização dos arquivos pertencentes a UFMG.
A instituição tem dois repositórios, um intitulado ‘Biblioteca Digital (BD)’ onde estão
depositadas Teses, Dissertações, Monografias e trabalhos de Especializações; e outro site
denominado ‘Repositório Digital (RD)’, onde estão outros tipos de documentos (ex: artigos),
o que foge a estrutura e organização dos demais RIs.
Com relação ao subsistema de navegação, todos os repositórios disponibilizam o
recurso de navegação chamado “migalhas de pão” (links que mostram o caminho percorrido
pelo usuário). Todavia o caminho registrado nas migalhas de pão, curiosamente, não
corresponde ao percorrido pelo usuário, especialmente se for feito uso da busca. Em geral, ao
3543
se chegar a um documento, a migalha de pão não apresenta o caminho percorrido para chegar
ao documento, mas apenas a comunidade do qual o documento faz parte. Em geral, nos
repositórios, o usuário leva de 3 a 5 cliques para alcançar um documento qualquer dentro dos
acervos, pela navegação convencional, a partir de um critério selecionado (ex: por autor, data,
assunto ou título).
Existe nos repositórios da UFRGS e da UFBA uma navegação por tipo de documento
que não existem nos demais repositórios. Porém, os tipos cadastrados no RI da UFBA são
duplicados ou confusos (vide FIGURA 3). Por exemplo, fica-se na dúvida sobre qual é a
diferença entre o tipo “Livro” e “Produção Bibliográfica: Livros” e isso pode provocar
cadastramentos duplicados ou inadequados. Também verifica-se (FIGURA 3) um número
elevado de cadastros no tipo documental “Outros” (849 registros), porém, ao verificar o
conteúdo desse item, a grande maioria é de projetos PIBIC (Programa Institucional de Bolsas
de Iniciação Científica) o que poderia indicar a necessidade de criação dessa categoria
específica. Já o RI da UFRGS dispõe 36 tipos de documentos, mas não apresenta
redundâncias na descrição e representação de seus tipos.
FIGURA 3 – Navegação por tipo de documento no repositório da UFBA
Fonte: (UFBA, [2010])
Outa característica peculiar é que dentre os 15 Ris analisados, apenas o da UFRGS
possui mapa do site, ajudando o usuário a ter uma visão geral das funcionalidades disponíveis.
A UFRGS também dispõe do link ‘AJUDA’ onda há instruções de como navegar e fazer
3544
pesquisas no site, dicas para combinar termos e realizar uma revocação mais precisa. O link
‘AJUDA’ dispõe de ilustrações mostrando o passo a passo de como as buscas devem ser
realizadas. (como mostra figura abaixo);o repositório da UFPA oferece um manual de
Pesquisa que ajuda o usuário a definir a melhor forma possível de busca e o link para
perguntas frequentes. Em vários outros repositórios, como por exemplo os da UFBA, UFC,
UFMS e UFES, a ajuda oferecida não corresponde a expectativa, visto que o usuário é
direcionado para a página de ajuda do software DSPACE (em inglês) E, finalmente, o link de
ajuda da UFRN não funciona, ao se clicar, nada acontece.
Quanto a questões de internacionalização, os repositórios da UFMA, UFMS, UFSC,
UFMG, UFC e UFS e UFPE não oferecem qualquer opção nesse sentido. Porém, os demais
que oferecem a opção de tradução do site para outros idiomas como inglês, espanhol e
francês, não fazem essa tradução a contento (ex: partes do site continuam sem tradução ou os
idiomas estrangeiros ficam misturados), como no repositório da UFES, UFBA e UFRN.
Outro fato curioso é que na página traduzida para outro idioma, somem da tela diversos
itens/recursos. Divergentemente dos demais, o RI da UFPR apresenta todas as
funcionalidades em inglês, como idioma base, disponibilizando seus conteúdos em português.
O site possibilita a tradução para o português, porém a tradução é confusa e incoerente,
apresentando termos misturados. O que, inclusive, foge ao contexto do usuário, visto que é
um repositório brasileiro.
No tocante ao subsistema de rotulação, praticamente não são utilizados ícones e o
vocabulário dos menus dos repositórios é simples. Todos os repositórios consultados
disponibilizam a busca convencional apenas com um único campo e na página de resultados
oferecem os recursos de paginação e ordenação. Com exceção dos repositórios da UFAL,
UFPE e UFBA, os outros repositórios apresentam também a busca avançada com o uso de
operadores booleanos, com telas muito similares (FIGURA 4).
Finalmente, no repositório da UFBA há uma opção no lado direito da tela chamada
“Busca Facetada” (vide FIGURA 5 – lado esquerdo). Porém, ela é bem confusa, inclusive
seus botões de navegação ficam ocultos no meio do texto, não deixando claro como navegar
entre as opções. No repositório da UFAL há o mesmo tipo de informações a direita, mas
chamada de REFINAR (vide FIGURA 5 – lado direito), os botões estão um pouco mais
destacados, ainda assim a navegação pelas opções não é clara para os usuários.
3545
FIGURA 5 – Menu da direita dos repositórios da UFBA e da UFAL
Repositório da UFBA
Repositório da UFAL
Fonte: (UFBA, [2010]; UFAL, [2013])
3.3 Avaliação de Acessibilidade
No QUADRO 4 é possível visualizar um resumo da avaliação de acessibilidade
realizada nos repositórios usando os avaliadores DaSilva e HERA. Foram utilizados as
recomendações WCAG 1.0 e os erros estão classificados em termos de prioridades 1 (P1), 2
(P2) e 3 (P3).
A partir QUADRO 4 é possível constatar que todos os websites pesquisados possuem
erros que podem dificultar a utilização dos repositórios por usuários com deficiência. A
avaliação apresenta resultados similares entre os sites, porém destacam-se os RIs da UFS,
UFMS e UFRGS com mais erros, de acordo com a ferramenta validadora DaSilva. Entretanto,
esses mesmos sites permaneceram na média de erros dos outros sites, de acordo com a
ferramenta validadora HERA. O repositório da UFBA não pôde ser avaliado pela ferramenta
DaSilva, pois o endereço do RI não foi reconhecido pela ferramenta.
3546
QUADRO 4 – Resultados da Avaliação de Acessibilidade
Repositórios
UFAL
UFBA
UFC
UFMA
UFRN
UFPE
UFPB
UFS
UFPA
UFMS
UFMG
UFES
UFSC
UFPR
UFRGS
P1
11
-11
7
10
7
11
18
6
16
11
11
4
1
14
DaSilva
ERROS
P2
P3
1
3
--3
3
2
3
4
3
2
3
3
3
4
3
11
2
3
3
2
2
3
3
3
3
3
3
8
2
P1
0
2
2
1
2
1
2
0
3
1
2
2
1
1
3
HERA
ERROS
P2
P3
4
4
6
4
6
4
5
3
6
4
5
3
6
4
6
4
6
4
4
4
6
3
6
4
4
3
4
3
8
4
Fonte: Os autores, 2014
Os itens de prioridade 1 merecem serem vistos com mais cautela e precisam ser
atendidos. Nesta prioridade, alguns dos erros encontrados foram: página não possui um
equivalente textual para cada imagem apresentada. Isso implica a não tradução e, portanto a
não assimilação do teor da imagem por usuários que tenham deficiência visual. Outro
problema é que os repositórios não asseguram que todas as informações veiculadas em cor
estejam também disponíveis sem cor, para não prejudicar a visualização da informação por
pessoas daltônicas. Um outro item revela que há heterogeneidade ao longo das páginas,
recomendando usar padrões de desenhos, agrupar itens no menu de forma coerente, como
também é recomendada a especificação de cada abreviatura ou sigla.
Outro problema considerado grave é a não identificação do idioma da página para
utilização pelos softwares leitores de tela. Isso se torna ainda mais complicado, visto que ao se
usar o recurso de visualizar a página em outro idioma, a tradução é feita parcialmente,
mesclando idiomas, o que dificultaria a leitura do conteúdo do site por leitores de tela.
Constatou-se, também, através de análise manual que a maioria dos sites não apresentavam
qualquer ferramenta para facilitar a navegação de usuários com necessidades especiais, tal
como a chamada barra de acessibilidade, que ofereceria opções para mudança do contraste, do
padrão de cores e possibilidade de aumento ou diminuição do tamanho da fonte. Apenas no
site do RI da UFRGS foi encontrada isoladamente a opção de aumento da fonte.
3547
Trabalhar para promover acessibilidade da informação é poder atender um direito de
todo e qualquer cidadão. Os repositórios institucionais como meio de divulgação da produção
de instituições que utilizam dinheiro público, deveriam primar por atendê-la. Desta forma não
estaria restringindo seu número de usuários e corroboraria com a ideia de democracia
informacional.
8 CONSIDERAÇÕES FINAIS
Esta pesquisa propôs a avaliação do acesso, busca e visualização de informações nos
Repositórios Institucionais com base nos princípios de Arquitetura, Acessibilidade,
Usabilidade da Informação. Os resultados obtidos trazem indícios de que é preciso repensar
os modelos de interação dos repositórios institucionais das universidades federais brasileiras,
devido aos diversos problemas encontrados. Uma das possíveis causas da quantidade e
similaridade de problemas é a falta de experiência com o software utilizado para a criação dos
repositórios e a utilização de esquemas padrões presentes nele. Observou-se, também,
problemas de manutenção nesses ambientes e que muitos chegam a ficar semanas
indisponíveis (fora do ar). O que se nota é um cuidado apenas para criar esses ambientes, de
forma que eles existam, mas não é evidenciada uma preocupação com a interação com a
comunidade ou correção de qualquer problema existente, mesmo os mais explícitos.
Como uma continuidade dessa pesquisa, pretende-se realizar testes de usabilidade com
usuários reais, de grupos com perfis diversos, nos repositórios. Além de realizar o
levantamento das dificuldades, necessidades e anseios desses usuários na utilização dos
repositórios. Com isso, espera-se cruzar as informações da avaliação aqui realizada (mais
técnica), com os resultados da avaliação feita com os usuários, seguindo o caminho dos
chamados estudos híbridos da informação (COSTA; RAMALHO, 2010).
Ainda há muito que se explorar sobre o tema proposto e são muitos os desafios a
serem enfrentados. Porém, se tem o cunho social como motivador principal, visto que
pesquisas desse tipo podem contribuir com o acesso livre a informação, uma vez que os
repositórios institucionais podem ser um vetor para democratização e acesso ao conhecimento
científico produzidos neste país.
REFERÊNCIAS
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR 9241-11: Requisitos
Ergonômicos para Trabalho de Escritórios com Computadores: Parte 11: Orientações sobre
Usabilidade. Rio de Janeiro, 2002. 21p.
3548
BASTIEN, C.; SCAPIN, D. Ergonomic criteria for the evaluation of human-computer
interfaces. Roquencourt: INRIA, 1993. 83p.
BLATTMANN, U. ; BOMFÁ, C. R. Z. Gestão de conteúdos em bibliotecas digitais: acesso
aberto de periódicos científicos eletrônicos. Revista Brasileira de Biblioteconomia e
Documentação, São Paulo, v. 2, n. 1, p. 41-56, 2006. Disponível em:
<http://www.ced.ufsc.br/~ursula/papers/RBBD-2006-16.pdf . . Acesso em: 05 maio 2014.
CAMARGO, L. S. A.; VIDOTTI, S. A B. G. Análise de elementos de arquitetura da
informação em repositórios institucionais digitais: um enfoque ao acesso. In: CONGRESSO
BRASILEIRO DE CIÊNCIAS DA COMUNICAÇÃO, 26., 2003, Belo Horizonte:
INTERCOM – Sociedade Brasileira de Estudos Interdisciplinares da Comunicação, Belo
Horizonte: ENDOCOM, p. 1-12, 2003.
CAMARGO, L. S. de A. de. Metodologia de Desenvolvimento de Ambientes
Informacionais Digitais a partir dos Princípios da Arquitetura da Informação. 2010.
Tese (Doutorado em Ciência da Informação) – Faculdade de Filosofia e Ciências,
Universidade Estadual Paulista, Marília, 2010, 287p.
COSTA, L. F. da; RAMALHO, F. A. Novas perspectivas dos estudos de satisfação de
usuários. Encontros Bibli: Revista eletrônico de biblioteconomia e ciência da informação,
Florianópolis, v. 15, n. 30, p. 57-73, 2010.
GIL, A. C. Como elaborar projetos de pesquisa. 5. ed. São Paulo: Atlas, 2008.
IBICT - Repositórios Digitais. Instituto Brasileiro de Informação em Ciência e Tecnologia.
Disponível em: http://www.ibict.br/informacao-para-ciencia-tecnologia-einovacao%20/repositorios-digitais . Acesso em: 23 jul. 2014.
INTERNATIONAL ORGANIZATION FOR STANDARDIZATION. ISO/IEC 9126-1:
Software engineering: product quality: Part 1: Quality Model. Geneve, 2001.
LAKATOS, E. M.; MARCONI, M. de A.. Fundamentos de metodologia científica. 5. ed.
São Paulo: Atlas, 2007. 315p.
MEDINA, A. L. Beneficios de los repositorios institucionales para la comunidad
universitaria. Mi+d – Acceso Abierto a La Infomación Científica. 31 agosto, 2006.
Disponível em: http://www.madrimasd.org/blogs/openaccess/2006/08/31/39195 . Acesso em:
15 jul. 2014.
MORVILLE, P.; ROSENFELD,L. Information Architecture for the World Wide Web. 3.
ed. Califórnia: O’reilly media, 2007.
MUELLER, S. P. M. A comunicação científica e o movimento de acesso livre ao
conhecimento. Ciência da Informação, v. 35, n. 2, p.27-38, maio/ago. 2006.
NIELSEN, J. Designing Web Usability. California: New Riders, 1999. 419p.
NIELSEN, J. Usability Engineering. San Francisco: Morgan Kaufmann, 1993. 362p.
NIELSEN, J.; LORANGER, H. Usabilidade na Web: Projetando Websites com Qualidade.
2. Ed. Campus, 2007.
3549
OPENDOAR. Directory of Open Access Repositories: Brazil. Nottingham: University of
Nottingham, @2006-2014. Disponível em: <http://www.opendoar.org/index.html>. Acesso
em: 14 set. 2014.
PRESSMAN, R. S. Engenharia de Software. São Paulo: Editora Makron Books, 2004.
REPOSITÓRIO institucional. In: GLOSSÁRIO. DSpace. Repositórios digitais. Brasília:
Instituto Brasileiro de Informação em Ciência e Tecnologia, 2007. Disponível em:
<http://dspace.ibict.br/index.php?option=com_content&task=view&id=43&Itemid=77>.
Acesso em: 20 jun. 2014.
SHNEIDERMAN,B.; PLAISANT, C. Designing the User Interface: Strategies for Effective
Human‐Computer Interaction. Boston: Addison Wesley, 2004.
TORRES, E. F.; MAZZONI, A. A.; ALVES, J. B. da M. A acessibilidade à informação no
espaço digital. Ciência da Informação, Brasília, v. 31, n. 3, p. 83-91, set./dez. 2002.
UNIVERSIDADE FEDERAL DA BAHIA (UFBA). Repositório Institucional. Salvador:
UFBA, [2010]. Disponível em: <https://repositorio.ufba.br/ri/>. Acesso em: 15 set. 2014.
UNIVERSIDADE FEDERAL DE ALAGOAS (UFAL). Repositório Institucional. Maceió:
UFAL, [2013]. Disponível em: <http://www.repositorio.ufal.br>. Acesso em: 15 set. 2014.
UNIVERSIDADE FEDERAL DO CEARÁ (UFC). Repositório Institucional UFC.
Fortaleza: UFC, [2011]. Disponível em: <http://www.repositorio.ufc.br>. Acesso em: 15 set.
2014.
UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE (UFRN). Repositório
Institucional. Natal: UFRN, [2010]. Disponível em: <http://repositorio.ufrn.br:8080/jspui/>.
Acesso em: 15 set. 2014.
VIANA, C. L. M; MÁRDERO ARELLANO, M. A; SHINTAKU, M. Repositórios
institucionais em ciência e tecnologia: uma experiência de customização do DSpace. In:
SIMPÓSIO DE BIBLIOTECAS DIGITAIS, 3., 2005, São Paulo. Anais eletrônicos... São
Paulo: CRUESP, p. 1-27, 2005.
VIDOTTI, S. A. B. G.; CUSIN, C. A. Inclusão digital via acessibilidade web. Liinc em
revista, Rio de Janeiro, v. 5, n. 1, p. 45-65, mar. 2009.
WINCKLER, M. A.; PIMENTA, M. S. Avaliação de Usabilidade de Sites Web. In: Escola de
Informática da SBC SUL (ERI 2002) ed. Porto Alegre: Sociedade Brasileira de Computação
(SBC), 2002, v. 1, p. 85-137.
3550
Modalidade da apresentação: Pôster
INFLUÊNCIA DA INOVATIVIDADE E FINANCIAMENTO NO RESULTADO EM
START-UPS
INFLUENCE OF INNOVATIVENESS AND FINANCING ON OUTCOME AT WEB STARTUPS
Anselmo Battisti
Carlos O. Quandt
Resumo: A inovação constante (inovatividade), e os resultados, são fatores crucial para a
sobrevivência das organizações em nossa sociedade pós-moderna. Os novos canais
mediadores de comunicação são explorados comercialmente por empresas que nascem em um
ambiente de extrema incerteza. Estas empresas que utilizam a Internet para oferecer seus
serviços são chamadas web start-ups. A obtenção de capital por elas para financiar suas
atividades não é uma tarefa simples. Os mecanismos tradicionais de financiamento exigem
contratos cujos termos e garantias raramente podem ser atendidos por estas organizações,
desta forma, novos meios de financiamento foram desenvolvidos para dar suporte as mesmas.
É neste contexto que este trabalho está inserido e, o seu objetivo é investigar qual a relação
existente entre a inovatividade, o financiamento e o resultado nas web start-ups. Este estudo
pode ser caracterizado como correlacional-causal com corte transversal. A unidade de análise
são as web start-ups e seus investidores. Serão utilizados como instrumento de coleta de
dados questionários e entrevistas semiestruturadas. A análise dos dados será realizada
utilizado métodos mistos de análise onde serão combinadas as técnicas de análise de conteúdo
e análise fatorial. Os resultados deste estudo poderão ser utilizados pelas web start-ups e
financiadores para aumentar o entendimento sobre os fatores que influenciam o resultado nas
web start-ups.
Palavras-chave: Inovatividade. Financiamento. Resultado. Web Start-up.
Abstract: The constant innovation (innovativeness), and the results are crucial factors for the
survival of organizations in our postmodern society. The new mediators communication
channels are exploited commercially by companies that are born in an environment of
extreme uncertainty. These companies use the Internet to offer their services are called web
start-ups. Traditional funding mechanisms require contracts whose terms and warranties can't
be contemplated by these organizations, thus new means of financing have been developed to
support the same. Your goal is to investigate the relationship between innovativeness, funding
and outcome in web start-ups. This study can be characterized as causal-correlational crosssectional. The unit of analysis is the web start-ups and their investors. Will be used as a tool
for data collection questionnaires and semi-structured interviews. Data analysis will be
performed used mixed methods of analysis which will be combined techniques of content
analysis and factor analysis. The results of this study could be used by start-ups and web
funders to increase understanding of the factors influencing the outcome in web start-ups.
Keywords: Innovativeness; Financing; Incomes; Web Start-up.
1 INTRODUÇÃO
A criação de tecnologias como: transistor; microprocessador e as redes de
computadores, transformou o modo como a sociedade se organiza (SCHNEIDER;
3551
CASTELLS, 1997). A ordem social que foi apresentada ao mundo após a segunda revolução
industrial está sendo modificada. A esta nova ordem social onde a informação desempenha
papel central, principalmente com o surgimento da Internet, podemos chamar de sociedade da
informação (PINHO, 2011).
Novos empreendimentos nos setores de tecnologia da informação (TI) possuem grande
potencial econômico e de transformação social. As web start-ups como são comumente
chamadas as novas empresas deste setor têm recebido fomento dos governos de diversos
países (SCHUBERT; HAUSLER, 2001). Isso ocorre por diversos motivos, alguns deles são:
geram empregos com altos salários; trazem receita para o governo; possuem baixo impacto
ambiental. Mesmo atuando em um setor onde a informação e o conhecimento são altamente
relevantes, o capital financeiro não deixa de ser elemento importante para o surgimento e
consolidação destas organizações.
As web start-ups criam serviços que são consumidos em um ambiente virtual mediado
por um web site. Este web site em geral possui público com nível de maturidade tecnológica
bastante heterogêneo. Como forma de facilitar o consumo da informação disponibilizada o
mesmo deve possuir requisitos básicos de usabilidade e acessibilidade (VIDOTTI;
SANCHES, 2004; WURMAN, 2005).
O conhecimento é os processos são elementos fundamentais para a inovação. Dentro
das diversas fontes de vantagem competitiva de uma organização o conhecimento tácito é
uma das mais duradouras, porém, a formalização do conhecimento tácito em um
conhecimento tangível ou também chamado de conhecimento explícito não é uma tarefa
simples (ICHIJO; NONAKA, 2007). Entretanto, este processo é importante nas web start-ups
para que a mesma crie ativos tangíveis, um exemplo desta formalização do conhecimento é a
geração de patentes. Um dos fatores que influenciam na obtenção de capital é a tangibilidade
dos ativos de uma organização (CASSAR, 2014; CONTI; THURSBY; THURSBY, 2013).
2. FUNDAMENTAÇÃO TEÓRICA EMPÍRICA
2.1 Inovatividade
A inovação é o resultado da mobilização de um conjunto de recursos, comportamentos
e atividades que possibilitam o desenvolvimento de novos produtos, processos e sistemas
(QUANDT; FERRARESI; BEZERRA, 2013). Portanto, o seu surgimento está associado à
convergência de vários fatores complexos e dinâmicos em um contexto organizacional
específico. Sem a existência da inovação constante a proposta de valor da organização pode
3552
eventualmente ser copiada por seus concorrentes, deixando assim a competição limitada ao
aspecto preço (KAPLAN; NORTON, 2004b).
A inovatividade é a capacidade de inovar de forma contínua e duradoura (QUANDT;
FERRARESI; BEZERRA, 2013). (PORTER; KETELS, 2003) apresentam evidências da
relação entre a rede de relacionamento de uma organização com seus aspectos inovadores. Por
outro lado, (QUANDT; FERRARESI; FREGA, 2012) também encontraram relação positiva
entre o desempenho inovador e aspectos como aprendizagem; valorização do comportamento
empreendedor; esforços para a interiorização do conhecimento. Desta forma, podemos
entender que o fenômeno inovatividade pode ser influenciado tanto por fatores internos como
por fatores externos a organização.
2.2 Web Start-ups
Uma start-up é uma organização criada para desenvolver novos produtos e serviços
sob condições de extrema incerteza (RIES, 2011), cujo modelo de negócio é repetível e
escalável (GRANDO, 2012) e evolui por cinco fazes independentes, sendo elas: cliente,
produto, equipe, modelo de negócio e financiamento, além disso, ela ainda deve estar em um
estágio de investimento (MARMER et al., 2012).
As web start-ups devem possuir um modelo de negócio escalável e repetível
(DRAPER, 2012). Escalável significa que o custo por cliente diminui quanto maior for o
número de clientes. O termo repetível significa que o mesmo serviço é consumido por todos
sem a necessidade de personalização. A não necessidade de customização pra um cliente
específico é o que fortalece a existência das premissas de usabilidade e da acessibilidade nos
produtos oferecidos por uma web start-up.
2.3 O Financiamento em Start-ups
Uma organização é formata pelos seus recursos tangíveis e intangíveis (KAPLAN;
NORTON, 2004a). A construção de uma web start-up demanda recursos destas duas
naturezas. Neste trabalho serão considerados recursos tangível o capital utilizado advindo de
algum tipo de financiamento externo ou próprio dos empreendedores. Os recursos intangíveis
representam tudo aquilo que advém de forma implícita ao financiamento ou seja, o
conhecimento agregado, influência e network gerado em função da entrada de um investidor
na web start-up.
A fase embrionária de uma start-up é denominada bootstrap Assim como nos
negócios tradicionais, existem diversas formas de se financiar uma start-up. A forma
dominante de financiamento externo em start-ups são as empresas de capital de risco (venture
3553
capital) (BAUM; CALABRESE; SILVERMAN, 2000). Em se tratando especificamente de
web start-ups outras formas de financiamento também são utilizadas, algumas delas são:
capital ou patrimônio próprio; amigos, família; empréstimo em banco; financiamento estatal;
incentivos; financiamento por cliente; crowdfunding; emprego alternativo (GRANDO, 2012).
O tipo de financiamento demandado varia de acordo com a fase da organização pois,
ao longo do tempo as necessidades do montante de capital modificam-se (GREGORY et al.,
2005; SPINA, 2012). O uso de recursos internos da organização também deve ser classificado
como financiamento, (PEREIRA; GOMES, 2014) apontam que o uso deste tipo de capital
torna um ativo antes disponível em um ativo imobilizado ao longo de determinado período de
tempo, essa imobilização impede o uso no aproveitamento de possíveis oportunidades que
possam surgir.
O custo do financiamento está fortemente relacionado com a assimetria das
informações possuídas pelo financiado e financiador. Quanto mais arriscada a operação
aparenta ser, maior será a taxa que o financiador irá exigir pelo empréstimo do capital. No
outro extreme deste continuus, o solicitante por sua vez possui informações que poderiam
diminuir esta assimetria, Porém, tal como apresentado por (SHANNON; WEAVER, 1964)
existem problemas semânticos e de eficácia que dificultam a comunicação e, apesar da
transmissão dos dados ser efetiva estes problemas impedem que o mesmo seja convertido em
informação a fim de atingir o seu objetivo primário de comunicar.
2.4 Resultado em Start-ups
No processo de monitoramento da performance de uma organização os indicadores
são de fato o elemento mais crítico (CALDEIRA, 2012). A escolha dos mesmos deve
englobar tanto os indicadores financeiros, contábeis e os não contábeis. Ainda não existe um
conjunto consagrado de indicadores de desempenho para o trabalho intelectual (DRUCKER,
1995), e, por consequência indicadores de resultado consistentes em web start-ups.
A identificação do conjunto principal de indicadores de desempenho organizacional é
uma tarefa bastante complexa. (NEELY, 1999) apresenta duas possibilidades para esta
situação. A primeira delas é que os indicadores que fazem sentido para a organização evoluem
ao longo do tempo. A segunda é que nem sempre é óbvio identificar o que necessita ser
mensurado. Desta forma a construção destes indicadores deve passar por uma análise
individual de cada organização, porém, neste trabalho um conjunto de indicadores
padronizados será utilizado como mecanismos para a mensuração do resultado. Estes
3554
indicadores contemplarão as perspectivas cliente; financeira; processo crítico e de
aprendizagem organizacional.
3. MÉTODO
Segundo a taxonomia utilizada para a classificação dos tipos de pesquisa proposta por
(SAMPIERI; COLLADO; LUCIO, 2013) este estudo pode ser caracterizado como sendo,
transversal e correlacional-causal / descritivo. Esta classificação se justifica como transversal
pois ele busca retratar o fenômeno em um ponto temporal específico. O estudo é
correlacional-causal pois busca verificar a existência da relação de causa e efeito entre os
construtos, como pode ser visto na Figura 1, e descritivo pois apresentará a descrição de como
um fenômeno ocorre.
A unidade de análise deste estudo será composta por duas entidades. A primeira delas
são as web start-ups e a segunda os investidores que aplicam capital nessas organizações. A
população pode ser definida como todas as web start-ups brasileiras. Serão admitidas web
start-ups que estejam em qualquer nível de desenvolvimento.
Esta pesquisa será realizada utilizando métodos mistos de análise. Serão empregados
métodos quantitativos e qualitativos, e, sem predominância entre as abordagens. O método
misto foi escolhido para aumentar a validade interna e externa da pesquisa, pois sua aplicação
permite uma maior triangulação dos dados (SAMPIERI; COLLADO; LUCIO, 2013).
A relação existente entre os construtos estudados pode ser vista na Figura 1. As
relações R1 e R2 serão estudadas individualmente e concomitantemente. Para sua análise
serão utilizados métodos quantitativos. A relação R3 e R4 será estudada tanto de forma
quantitativa como qualitativa.
FIGURA 1 – Esquema analítico dos construtos analisados
Fonte: Desenvolvido pelo autor
3555
4. CONSIDERAÇÕES PARCIAIS
Este estudo busca analisar a existência da relação entre os construtos inovatividade,
financiamento e resultado em web start-ups. Ao final da pesquisa espera-se identificar o nível
da correlação existente ente estes construtos, bem como, apresentar uma explicação sobre
como ocorre o processo de financiamento nestas organizações. Este trabalho justifica-se pois:
a) É uma associação inédita entre os construtos;
b) Os resultados obtidos neste estudo poderão auxiliar os demais pesquisadores do
campo pois as web start-ups como as definidas neste trabalho são um fenômeno relativamente
recente e com poucos estudos realizados;
c) Os empreendedores poderão utilizar os resultados desta pesquisa como elemento
norteador sobre suas escolhas de financiamento e, analisar se o esforço necessário para
construir web start-up inovativa realmente se converte em bons resultados.
REFERÊNCIAS
BAUM, J. A. C.; CALABRESE, T.; SILVERMAN, B. S. Don’t go it alone: alliance network
composition and startups' performance in Canadian biotechnology. Strategic Management
Journal, v. 21, n. 3, p. 267–294, mar. 2000.
CALDEIRA, J. 100 Indicadores da Gestão Key Performance Indicators. 1. ed. Lisboa:
Actual, 2012.
CASSAR, G. Industry and startup experience on entrepreneur forecast performance in new
firms. Journal of Business Venturing, v. 29, n. 1, p. 137–151, jan. 2014.
CONTI, A.; THURSBY, J.; THURSBY, M. Patents as Signals for Startup Financing. The
Journal of Industrial Economics, v. LXI, n. 3, p. 592–622, 2013.
DRUCKER, P. The information executives truly need. Harvard Business Review, v. 73, n.
1, p. 54–62, 1995.
GRANDO, N. Empreendedorismo Inovador Como criar start-ups de tecnologia no
Brasil. 1. ed. São Paulo / SP: Ed. Evora, 2012. p. 582
GREGORY, B. T. et al. An Empirical Investigation of the Growth Cycle Theory of Small
Firm Financing. Journal of Small Business Management, v. 43, n. 4, p. 382–392, out. 2005.
ICHIJO, K.; NONAKA, I. Knowledge Creation and Management: New Challenges for
Managers. 1. ed. [s.l.] Oxford University Press, USA, 2007. v. 2011p. 336
KAPLAN, R.; NORTON, D. Measuring the strategic readiness of intangible assets. Harvard
Business Review, v. 82, n. 2, p. 52–63., 2004a.
KAPLAN, R. S.; NORTON, D. P. Strategy Maps: Converting Intangible Assets Into
Tangible Outcomes. [s.l.] Harvard Business Press, 2004b. p. 454
MARMER, M. et al. Startup Genome Report Extra on Premature Scaling. Disponível em:
<http://bit.ly/1oRf25b>. Acesso em: 15 set. 2014.
3556
NEELY, A. The performance measurement revolution: why now and what next?
International Journal of Operations & Production Management, v. 19, n. 2, p. 205–228,
1999.
PEREIRA, L.; GOMES, P. Relaçao com Investidores Da Pequena Empresa ao Mercado
de Capital. 1. ed. Rio de Janeiro: IBRI – CVM, 2014.
PINHO, J. A. G. Sociedade da Informação, Capitalismo e Sociedade Civil : Reflexões Sobre
Política, Internet e Democracia na Realidade Brasileira. Revista de Administração de
Empresas, v. 51, n. 1, p. 98–106, 2011.
PORTER, M.; KETELS, C. UK Competitiveness: moving to the next stage. [s.l: s.n.].
Disponível em: <http://www.bis.gov.uk/files/file14771.pdf>. Acesso em: 23 abr. 2014.
QUANDT, C. O.; FERRARESI, A. A.; BEZERRA, C. A. 10 dimensões da inovatividade e
seus impactos no desempenho inovadorEncontro da Associação dos Programas de PósGraduação em Administração. Anais...Rio de Janeiro / RJ: 2013
QUANDT, C. O.; FERRARESI, A. A.; FREGA, J. R. Gestão de Ideias e Inovação em
Grandes Empresas do Sul do BrasilEncontro da Associação dos Programas de PósGraduação em Administração. Anais...Rio de Janeiro / RJ: 2012
RIES, E. The Lean Startup. New York, New York, USA: Crown Business, 2011. p. 336
SAMPIERI, R. H.; COLLADO, C. F.; LUCIO, P. B. Metodologia da Pesquisa. São Paulo /
SP: McGraw Hill, 2013.
SCHNEIDER, P. A.; CASTELLS, M. The Information Age: Economy, Society and Culture
Volume I: The Rise of the Network Society. Journal of Marketing, v. 61, n. 4, out. 1997.
SCHUBERT, P.; HAUSLER, U. E-government meets e-business: a portal site for startup
companies in Switzerland System Sciences, 2001. Proceedings of the 34th Annual Hawaii
International Conference on. Anais...Hawaii: 2001
SHANNON, C.; WEAVER, W. The mathematical theory of communication. 1. ed. Urbana
/ Illinois: The University of Illinois Press, 1964.
SPINA, C. A. Investidor Anjo Guia Para Empreendedores e Investidores. São Paulo / SP:
nVersos, 2012.
VIDOTTI, S.; SANCHES, S. Arquitetura da Informação em web sites Simpósio
Internacional de Bibliotecas Digitais. Anais...2004
WURMAN, R. S. Ansiedade de Informação 2. São Paulo / SP: Editora de Cultura, 2005.
3557
TECNOLOGIAS PARA APLICAÇÃO DA WEB SEMÂNTICA NAS BIBLIOTECAS E
ARQUIVOS
TECHNOLOGIES FOR APPLICATION OF SEMANTIC WEB IN LIBRARIES AND
ARCHIVIES
Marcelo Tomita
Maria Elisabete Catarino
Resumo: o projeto Web Semântica requer o emprego de várias tecnologias para a organização
e estruturação dos conteúdos da Web, imprescindíveis para possibilitar a localização e
recuperação da informação nos ambientes das unidades de informação. Esta pesquisa pretende
relacionar e conceituar as tecnologias utilizadas na Web Semântica que podem contribuir para
o desenvolvimento da Organização da Informação, dentro da Representação Descritiva e
Temática, possibilitando, aos utilizadores das unidades, uma qualidade maior nas buscas de
conteúdos e resultados mais significativos. Para a execução da proposta metodológica, será
empregada a abordagem qualitativa, que permite uma visão minuciosa e melhor entendimento
da Web Semântica. Os estudos bibliográficos e documentais englobarão as técnicas adotadas,
agregadas à metodologia de estudo de caso, esta última apropriada a uma percepção mais
direta das tecnologias que abrangem o projeto, sendo a biblioteca virtual Europeana, o estudo
de caso selecionado. Com este trabalho, tem-se a expectativa de preparar um material conciso
o bastante para descrever, de maneira sintética, as possibilidades de aplicação da Web
Semântica nas unidades de informação.
Palavras-chave: Internet. Web Semântica. Unidades de Informação. Organização da
Informação.
Abstract: the Semantic Web project requires the use of various technologies for the
organization and structuring of web content, essential to enable the location and retrieval of
information in environments of information units. This research aims to relate and
conceptualize the technologies used in the Semantic Web that can contribute to the
development of Information Organization, within the Descriptive Representation and Theme,
thus allowing unit users a higher quality in searches of content and more meaningful results.
For implementation of the methodological procedure, a qualitative approach will be adopted
based on the assumption that it enables a thorough and better understanding of the Semantic
Web vision. Bibliographic and documentary studies will use techniques, adding to ones
already employed in the case study so to allow for a more direct perception of the
technologies that comprise the project, with the virtual library Europeana, the selected case
study. This work is expected to prepare a concise material able to succinctly describe the
application possibilities of the Semantic Web in the units of information.
Keywords: Internet. Semantic Web. Information Units. Organization of Information.
1 INTRODUÇÃO
É nítido o fato de que a Web se desenvolve de forma vertical, os conteúdos
armazenados e disponíveis são incalculáveis, e isso se dá em virtude de que nunca, na
humanidade, se produziu como hoje, e as estatísticas atuais não são capazes de dimensionar,
com exatidão, o tamanho real da Web. A Internet se tornará imprescindível para armazenar
todo o conhecimento exigido nas relações profissionais e pessoais; será como uma extensão
3558
dos nossos pensamentos, pois é praticamente impossível armazenar, organizar e recuperar
todas as informações de que se precisa.
Quando um website é acessado, os seres humanos são capazes de identificar, por meio
de uma rápida visualização, dezenas de elementos nesta página, distinguir seus componentes,
compreender as informações, obter várias interpretações sobre esse conteúdo. No entanto, um
computador ou Gadget125, mesmo com seus algoritmos mais recentes e inovadores, ainda é
incapaz de realizar, de forma consistente, essa interpretação.
O World Wide Web Consortim(W3C) tem sido a principal entidade que fomenta a
padronização da Web ao desenvolver protocolos e diretrizes para que as recomendações
possam estar ao alcance das pessoas que produzem e disponibilizam conteúdos na Web.
Dentre as recomendações para a organização estrutural da Web, destaca-se o projeto da Web
Semântica que permitirá a organização e padronização da informação na Web, que por sua
vez, possibilitará sua precisa localização e recuperação por parte do usuário.
Para aperfeiçoar essa Web, são diversos os recursos tecnológicos recomendados: a
linguagem de marcação para estruturação e descrição de dados, eXtensible Markup Language
(XML); a linguagem para construção de ontologias, Web Ontology Language (OWL); o
modelo Resource Description Framework (RDF) que permite a estruturação dos dados e a
interoperabilidade entre sistemas; a linguagem de buscas SPARQL Protocol and RDF Query
Language (SPARQL), criada especificamente para a localização de dados na Web Semântica,
entre outros (WORLD WIDE WEB CONSORTIUM, 2011a).
Por outro lado, na Ciência da Informação (CI) tem-se a Organização da Informação
(OI) com suas tradicionais práticas para organização e estruturação das informações,
realizadas por intermédio da Representação Descritiva e Temática nas unidades de
informação126. Existem diversos tipos de estoques informacionais, dentre eles, os Arquivos e
Bibliotecas, sendo eles o foco do presente estudo, nos quais também se observa a
problemática do volume de informações armazenadas e organizadas para serem recuperadas,
principalmente na Web.
125
126
“Gadget: um dispositivo pequeno, quase sempre mecânico ou eletrônico, com um uso prático,
muitas vezes visto como uma novidade.” (DICIONÁRIO MERRIAN-WEBSTER, 2014, tradução
nossa).
Unidade de Informação: entidade encarregada de adquirir, processar, armazenar e disseminar
informações com o objetivo de satisfazer as necessidades do usuário. Em muitos casos, é
sinônimo de Biblioteca, agência de informação, [...] (CUNHA; CAVALCANTI, 2008, p.370).
3559
A proposta deste trabalho, considerando todo esse contexto, é apresentar um estudo
sobre as tecnologias necessárias para a aplicação da Web Semântica nas Bibliotecas e
Arquivos. Para que o objetivo proposto possa ser atingido, pretende-se realizar uma pesquisa
bibliográfica e estudo de caso, que possibilitem contemplar as tecnologias que envolvem a
Web Semântica e as técnicas de tratamento de informação por parte dos bibliotecários e
arquivistas. Esta contextualização permitirá identificar, de forma pontual, quais tecnologias e
técnicas serão necessárias para que a Web Semântica seja aplicada.
2 INTERNET E A WEB SEMÂNTICA
A internet é uma complexa rede de computadores e dispositivos interligados pelo
planeta. Inicialmente, foi concebida sem qualquer organização estrutural, elaborada como
uma rede para simples compartilhamento de informação, a qual cresceu de maneira
descontrolada, como mencionam Souza e Alvarenga (2004, p.133).
Embora tenha sido projetada para possibilitar o fácil acesso, intercâmbio e a
recuperação de informações, a Web foi implementada de forma
descentralizada e quase anárquica; cresceu de maneira exponencial e caótica
e se apresenta hoje como um imenso repositório de documentos que deixa
muito a desejar quando precisamos recuperar aquilo de que temos
necessidade.
Robredo (2010, p.14), em um artigo denominado “Ciência da informação e Web
semântica: Linhas convergentes ou linhas paralelas?”, refere-se à história da Web em “Web
1.0, Web 2.0 e Web 3.0”. A primeira “[...] caracterizava-se por suas páginas estáticas,
comportando textos, imagens e links que somente podiam ser alterados pelo Webmaster.” A
segunda, Web 2.0, caracterizava-se pelo aperfeiçoamento dos serviços de compartilhamento e
comunicação, havendo uma “proliferação de redes comunitárias e sociais, hospedagem de
serviços e aplicações, compartilhamento de vídeos, wikis e blogs.” A terceira, Web 3.0,
nomeada como Web Semântica, é definida pelos autores Tim Berners Lee, Hendler; Lassila
(2001, p.1, tradução nossa)como:
[...] uma extensão da atual, na qual é dada à informação um significado bem
definido, o que permite às pessoas e aos computadores trabalharem em
cooperação. [...] Num futuro próximo, esses desenvolvimentos deverão
conduzir a significativas novas funcionalidades à medida que as máquinas
irão se tornando bem mais capazes de processar e ―entender os dados que,
por enquanto, se limitam somente a apresentar.
Na visão da Inteligência artificial, “A Web Semântica é um conjunto de iniciativas
para promover uma Web futura, cujas páginas serão organizadas, estruturadas e codificadas
para que os computadores sejam capazes de fazer inferências e raciocinar seu conteúdo”
(CODINA; ROVIRA, 2006, p.2).
3560
O projeto da Web Semântica demanda o emprego de muitas tecnologias para a
organização e estruturação do conteúdo da Web, necessários para facilitar a localização e
recuperação da informação. Souza e Alvarenga (2004, p.134) entendem que:
Para atingir tal propósito, é necessária uma padronização de tecnologias, de
linguagens e de metadados descritivos, de forma que todos os usuários da
Web obedeçam a determinadas regras comuns e compartilhadas sobre como
armazenar dados e descrever a informação armazenada e que esta possa ser
“consumida” por outros usuários humanos ou não, de maneira automática e
não ambígua. Com a existência da infra-estrutura tecnológica comum da
Internet, o primeiro passo para este objetivo está sendo a criação de padrões
para descrição de dados e de uma linguagem que permita a construção e
codificação de significados compartilhados.
Breitman (2010) realiza uma analogia na maneira como os conteúdos da Web estão
organizados atualmente com uma biblioteca, no qual os livros estariam todos misturados, sem
qualquer organização de assunto. Dessa forma se houvesse a necessidade de localizar um
livro com o assunto protocolo TCP/IP, a busca seria relacionada à área de redes. No entanto,
se a palavra chave for somente a palavra rede, o resultado da busca poderia trazer livros com
assuntos referentes a redes telefônicas, redes de transmissão elétricas e redes de artesanato
nordestino.
3 ORGANIZAÇÃO DA INFORMAÇÃO
A CI está focada em pesquisas relacionadas à origem, coleção, organização,
armazenamento, recuperação, interpretação, transmissão, transformação e utilização da
informação (BORKO, 1968). O foco desta pesquisa na Organização da Informação (OI),
subárea da CI está na Representação Descritiva e Temática. A Representação Descritiva
realiza a Catalogação, para identificação e descrição dos documentos, utilizando-se de
códigos, normas e padrões de metadados. A Representação Temática retrata os conteúdos e
auxilia na recuperação da informação, empregando a indexação para extrair os termos mais
representativos de documentos e referenciá-los para melhor recuperação. Assim também o faz
por meio dos tesauros com seus vocabulários controlados dentro de um domínio específico, as
taxonomias que permitem criar estruturas classificatórias para organizar e reunir documentos
de forma lógica e as ontologias que representam modelos de dados, abstraindo as
especificações dos objetos.
As unidades de informações que adquirem, armazenam e organizam diversos materiais
de mídias distintas, sendo virtuais ou físicos, têm se ajustado às mudanças de comportamentos
dos usuários frente às novas tecnologias. Essas mudanças não envolvem somente a
manipulação dos objetos que deixaram de ser concretos, mas nas técnicas de tratamento das
3561
informações. No entanto, com a ratificação da Web Semântica, os processos tradicionais de
catalogação, indexação e classificação ainda são efetivos e eficazes para a realidade
contemporânea.
4 METODOLOGIA
Para a realização deste estudo, será empregada a abordagem qualitativa, uma vez que
não haverá a necessidade de medir ou enumerar eventos na análise dos dados. A abordagem
qualitativa possibilita obter os dados descritivos mediante contato direto e interativo do
pesquisador com a situação do objeto em estudo (NEVES, 1996), permitindo uma visão
minuciosa e melhor compreensão do ambiente da Web Semântica, desde a concepção até a
sua aplicação.
Com o propósito de compreender os detalhes que possibilitem o funcionamento da
Web Semântica adotaram-se as pesquisas de análise exploratória, que “[...] tem como objetivo
proporcionar maior familiaridade com o problema, com vistas a torná-lo mais explícito” (GIL,
2002, p.41) e a descritiva do tema, “[...] que tem como objetivo primordial a descrição das
características de determinada população ou fenômeno” (GIL, 2002, p.42).
As técnicas necessárias para o desenvolvimento do estudo são a pesquisa bibliográfica,
documental e estudo de caso. A pesquisa bibliográfica foi realizada em periódicos científicos
e bases de dados, resultando em contato com artigos, dissertações, teses e livros. A pesquisa
documental buscou informações nas diretrizes e recomendações do W3C. O estudo de caso
possibilita a observação direta dos acontecimentos que estão sendo estudados e “[...] conta
com o diferenciador de lidar com uma ampla variedade de evidências – documentos, artefatos,
entrevistas e observações” (YIN, 2005, p.26).
Na técnica de estudo de caso de acordo com Yin (2005, p.40-41), “[...] os projetos de
pesquisa de estudo de caso ainda não foram esquematizados [e] [...] cada tipo de pesquisa
empírica possui um projeto de pesquisa implícito”. Entende-se que não há uma sistematização
que deve ser seguida no desenvolvimento da pesquisa, as etapas podem ser redefinidas e
ajustadas durante o progresso do estudo. No entanto, para que haja uma parametrização na
realização do plano de pesquisa serão adotadas as etapas a seguir, conforme Nascimento et
al(2013) sugerem: Preparação Teórico Metodológica, Seleção do Caso, Coleta de Dados e
Análise dos Dados.
O estudo de caso permitirá compreender como se dá na prática a adoção das
tecnologias necessárias para a aplicação da Web Semântica. O caso selecionado foi a
3562
Europeana, um projeto da Europeana Foundation, que com apoio dos países da comunidade
europeia organiza conteúdos de domínio público.
A Coleta de Dados consistirá em levantar e documentar as aplicações da Web
Semântica no site da Europeana, empregando fontes de evidências, conforme sugere Yin
(2010). Ainda segundo o autor supracitado, é relevante utilizar “[...] duas ou mais fontes,
convergindo sobre os mesmos fatos ou descobertas [...]” (2010, p. 124), visto que tal ação
possibilita contemplar os tópicos exigidos. Para este estudo de caso, alinhado com as ideias de
Yin (2010, p.129) serão utilizadas cinco fontes de evidências: Documentação, Registro em
arquivo, Entrevistas, Observação Direta, Artefatos Digitais. Por meio desta coleta de dados,
pretende-se recolher dados que possibilitem pormenorizar os detalhes das tecnologias
envolvidas na produção do website biblioteca virtual Europeana.
Na fase de Análise de dados, será elaborada uma avaliação das tecnologiasempregadas para detectar quais delas serão necessárias à aplicação nas atividades das
Bibliotecas e Arquivos. As prováveis Categorias de Análise ou Análise Categorial:
Metadados, Linguagem de marcação, Linguagem de busca, Ontologias e Vocabulários e
Método de varredura de dados.
5 CONSIDERAÇÕES FINAIS
Com este estudo, pretende-se apresentar, de forma sintética, as possibilidades de
aplicação da Web Semântica nas unidades de informação, produzindo um material que
possibilite, aos envolvidos na preparação e distribuição de conteúdos para a Web, uma visão
clara das tecnologias envolvidas para a padronização da Web.
O presente trabalho, em andamento, aspira por contribuir para novas pesquisas, tais
como prova de conceito para resultados das recomendações da Web Semântica e
fortalecimento da formação do profissional da informação.
Para possibilitar uma percepção prática de todo o ambiente necessário para aplicação
das tecnologias da Web Semântica em Arquivos e Bibliotecas, será realizado um estudo de
caso com o site da biblioteca virtual Europeana, o qual atende as recomendações dos
protocolos e diretrizes da tecnologia estudada.
REFERÊNCIAS
BERNERS-LEE, T; LASSILA, O; HENDLER, J. The Semantic Web. Scientific American,
2001.p.34-43.
3563
BORKO, H. Information science: what is it? American Documentation, Jan. 1968.
Disponível em: <http://pt.scribd.com/doc/533107/Borko-H-v-19-n-1-p-35-1968> . Acesso
em: 8 abr. 2014.
BREITMAN, Karin Koogan.Web Semântica: A Internet do Futuro. Rio de Janeiro: LTC,
2010. 190p.
CODINA, L.; ROVINA, C. La Web Semántica. In: TRAMULLAS, J.(Org.).Tendencias em
Documentacion Digital. Guijón: Trea, 2006. Cap.1, p.9-54.
DICIONÁRIO MERRIAN-WEBSTER. Gadget. Disponível em: <http://www.merriamwebster.com/dictionary/gadget>. Acesso em: 17 jun. 2014
GIL, A. C.Como elaborar projetos de pesquisa. 4.ed. São Paulo: atlas, 2002. 176p.
NASCIMENTO, A. V. et al. O uso do método Estudo de Caso na Ciência da Informação no
Brasil.InCID:. Revista de Ciência da Informação e Documentação, v. 4, p.49-69, 2013.
NEVES, J.L. Pesquisa Qualitativa – Características, Usos e Possibilidades. Caderno de
pesquisas em Administração, São Paulo, V1, N 3, 2 Sem. 1996. Disponível em:
<http://www.ead.fea.usp.br/cad-pesq/arquivos/c03-art06.pdf>. Acesso em: 08 fev. 2014.
ROBREDO, J. Ciência da informação e Web semântica: Linhas convergentes ou linhas
paralelas? In: ROBREDO, J.; BRÄSCHER, M. (Org.). Passeios pelo Bosque da
Informação:. Brasília: IBICT, 2010. p.2-40. Disponível em:
<http://repositorio.unb.br/bitstream/10482/7952/6/CAPITULO_CienciaInformacaoWebSema
ntica.pdf>. Acesso em: 20 abr. 2014.
SOUZA, R. R.; ALVARENGA, L. A web semântica e suas contribuições para a ciência da
informação. Ciência da Informação, Brasília, v. 33, n. 1, p.132-141, jan./abr. 2004.
UNIDADE DE INFORMAÇÃO. In: CUNHA, M. B. da; CAVALCANTI, C R. O.
Dicionário de Biblioteconomia e Arquivologia. Briquete de Lemos. Brasília. 2008. 451p.
WORLD WIDE WEB CONSORTIUM. Web Semântica. 2011a. Disponível
em:<http://www.w3c.br/Padroes/WebSemantica>. Acesso em: 31 jan. 2014.
YIN, R. K. Estudo de Caso: Planejamento e Métodos. 3. ed. Porto Alegre. Bookman. 2005.
212p.
YIN, R. K. Estudo de Caso: Planejamento e Métodos. 4. ed. Porto Alegre. Bookman. 2010.
248p.
3564
FERRAMENTA DE SOFTWARE LIVRE PARA CONSTRUÇÃO DE BASES DE
DADOS REFERENCIAIS DE ARTIGOS CIENTÍFICOS DIGITAIS
FREE SOFTWARE TOOL FOR THE CONSTRUCTION OF REFERENTIAL DATABASE FOR
DIGITAL SCIENTIFIC ARTICLES
Carlos O. Quandt
Adriana Carla Silva de Oliveira
Guilherme Ataíde Dias
Resumo: Com a especialização de conteúdos nas bases de dados, a Internet se mostra fonte
de pesquisa para estudantes, professores e pesquisadores. Existem várias bases de dados que
referenciam, de forma exclusiva, itens bibliográficos, como livros, artigos científicos,
dissertações, teses etc. O portal de Periódicos Capes, o SciELO e a Brapci são exemplos de
bases de dados referenciais. O objetivo geral desta pesquisa foi estudar requisitos para o
desenvolvimento de um software livre para criação de bases referencias que auxilie a
disseminação de informação científica para a comunidade científica do Brasil. Esta pesquisa
conta com o apoio do CNpQ e foi desenvolvida em nível de mestrado. Trabalha com dois
tópicos estudados pelos pesquisadores da Ciência da Informação, as bases de dados e os
mecanismos de recuperação da informação em suporte digital. Como metodologia utilizou-se
de revisão de literatura e linguagens de programação. Como resultado, foi desenvolvido um
software livre que foca na construção de bases referenciais para recuperação de artigos
científicos digitais por meio da disponibilização de links. O software foi denominado “Base
de Dados Referencial de Artigos Científicos” (BADRAC), está hospedado no endereço
eletrônico http://badrac.herokuapp.com e permite que qualquer interessado construa uma base
de dados referencial. Por fim, deve-se considerar que o software disponibilizado está na
versão 1.0.0 beta, e necessita de mais testes e da contribuição dos usuários e dos
pesquisadores da área da Ciência da Informação.
Palavras-chave: Base de Dados Referencial. Recuperação da Informação Digital. Periódico
Científico Digital.
Abstract: With the specialization of content in databases the Internet proves resource for
students, teachers and researchers. There are several databases that reference, exclusively,
bibliographic items, such as books, journal articles, dissertations, theses etc. The portal de
Periódicos Capes, SciELO and Brapci are examples of referential databases. The main
objective of this research was to study requirements for the development of a free software
that helps to building referential databases and for dissemination of scientific information to
the scientific community in Brazil. This research has been supported by CNPq and was
developed at master's degree level. It works with two topics studied by information science
researchers, databases and mechanisms for information retrieval in digital format. The
methodology used was literature review and programming languages. As a result, we
developed a free software that focuses on building referential databases for the retrieval of
digital scientific articles by providing links. The software was called "Base de Dados
Referencial de Artigos Científicos" (BADRAC), is hosted at the website
http://badrac.herokuapp.com and allows any interested party to build referential databases.
Finally, one must consider that the software is available in its 1.0.0 beta version and needs
more testing and input from users and researchers in the field of Information Science.
Keywords: Referential Database. Digital Information Retrieval. Digital Scientific Journal.
3565
1 INTRODUÇÃO
Considerando que a evolução e o desenvolvimento da sociedade fundamentam-se na
disponibilização, no acesso, no uso e, eventualmente, no descarte da informação, é necessário
refletir sobre o papel e as aplicações da tecnologia para a comunicação e a sua disseminação
na sociedade. Essa comunicação pode ser realizada por meio de diferentes canais – dentre os
quais se destaca a comunicação científica – e alcançar públicos distintos, como a comunidade
científica, alvo ao qual se destina esse tipo de comunicação.
Assim, a comunicação científica é parte inerente do desenvolvimento da ciência e está
fundamentada na informação científica, gerando conhecimento, que por sua vez é divulgado,
sobretudo, por periódicos científicos (GUEDES, 1998).
O periódico científico, por sua vez, desenvolve a disseminação da produção científica
e tem um papel fundamental no meio acadêmico, promovendo avanços e destacando autores e
editores. Na década de 1990, com a chegada da informação eletrônica e o uso da Internet,
ocorreu a grande ruptura no modo de editoração e disseminação de informações,
principalmente da produção científica (FACHIN, 2002). Com a Internet, o formato digital
passou a promover a disseminação de conhecimento científico em larga escala e permitir uma
divulgação mais eficiente de suas publicações.
Porém, devido a grande quantidade de informação armazenada na Internet, o que se
observa é que a heterogeneidade das informações é um problema para que uma recuperação
de informação relevante na Web seja alcançada. Essa questão, entretanto, pode ser suavizada
com a organização especializada das bases de dados.
Com a especialização de conteúdos nas bases de dados, a Internet se mostra fonte de
pesquisa para estudantes, professores e pesquisadores. Existem várias bases de dados que
referenciam, de forma exclusiva, itens bibliográficos, como livros, artigos científicos,
dissertações, teses etc. O portal de Periódicos Capes, o SciELO e a Brapci são exemplos de
bases de dados referenciais.
É fato que a organização especializada das bases de dados reduz o escopo das
informações passíveis de busca. Diferentemente de uma pesquisa geral na Web, onde vários
tipos de bases de dados, que referenciam os mais diversos tipos de informação, são acionadas,
as bases de dados que referenciam apenas itens bibliográficos aumentam a relevância dos
resultados das buscas.
Em acréscimo a funcionalidade proporcionada pelas principais bases de dados
referenciais em que os usuários usufruem dos serviços de busca de artigos previamente
cadastrados, um software livre para a construção de base de dados referencial de artigos
3566
científicos proporciona a estudantes, professores e pesquisadores a possibilidade de criação de
suas próprias bases de dados, auxiliando na disseminação da informação científica.
O objetivo geral desta pesquisa foi estudar requisitos para o desenvolvimento de um
software livre para construção de bases de dados referencias que auxilie a disseminação de
informação científica para a comunidade científica do Brasil. Esta pesquisa conta com o apoio
do CNpQ e trabalha com dois tópicos estudados pelos pesquisadores da Ciência da
Informação, que são as bases de dados e o mecanismos de recuperação da informação em
suporte digital.
2 BASE DE DADOS
As bases de dados provocaram um grande impacto no uso de computadores. Elas
representam um papel crítico em todas as áreas de conhecimento em que o computador e suas
tecnologias específicas são utilizados: nas áreas afins de Negócio e Business, nas
Engenharias, na Matemática e na Física, na Medicina, na Educação, na Ciência da
Informação, entre outras áreas.
A definição de base de dados é vista por Heemann (1997, p. 2) como “um arquivo ou
um conjunto de arquivos computacionais no qual são armazenados dados, permitindo a
recuperação e atualização de informações”. Já para Rowley (2002, p. 125), o termo base de
dados é conceituado como “uma coleção geral e integrada de dados junto com a descrição
deles, gerenciada de forma a atender a diferentes necessidades de seus usuários”.
Zaninelli e Catarino (2004) afirmam que o meio eletrônico é uma forma rápida de
armazenar, transmitir, compartilhar e recuperar documentos e informações. As autoras ainda
expõem que:
Um recurso muito utilizado e eficaz para a disponibilização e troca de
informações entre organizações públicas e privadas, é o banco de dados e,
consequentemente, as suas bases de dados que ampliam significativamente a
qualidade das buscas informacionais, visto que essas bases apresentam
diversificados pontos de acesso à informação. (ZANINELLI; CATARINO,
2004, p. 2).
Existem vários tipos e nomenclaturas que diferenciam as bases de dados, como por
exemplo: referencial, de fonte, de texto completo, numérica, multimídia, de diretórios,
transacional (ROWLEY, 1994; FEATHER, STURGES, 2003; REITZ, 2014).
Classificam-se como referencias e de fontes aquelas disponíveis por meio de um
serviço de busca (ROWLEY, 1994; CUNHA, 2001). As bases referenciais remetem o usuário
à outra fonte – base de dados de fonte – que pode conter dados digitais originais e, em muitos
casos, de texto completo (ROWLEY, 1994).
3567
Feather e Sturges (2003) asseveram que as bases de dados bibliográficas contêm
referências a publicações, incluindo periódicos, artigos, anais de congressos, relatórios
governamentais, publicações legais, patentes, livros, etc. Diante desta afirmação, percebe-se
que uma base de dados bibliográfica é uma base de dados referencial de escopo reduzido,
especializado em itens bibliográficos.
3 RECUPERAÇÃO DA INFORMAÇÃO DIGITAL
Os Sistemas de Recuperação de Informação (SRIs) das bibliotecas de terracota na
Babilônia, de pergaminho em Pérgamo e de papiro em Alexandria passaram por
transformações significativas até chegar aos modernos sistemas com bases de dados
(ARAÚJO, 1995). Apesar desse longo caminho percorrido, foi apenas em 1951 que Calvin
Mooers, baseado em estudos sobre informação, criou o termo Information Retrieval
(Recuperação da Informação). Segundo o autor “A Recuperação de Informação trata dos
aspectos intelectuais da descrição da informação e sua especificação para busca, e também de
qualquer sistema, técnicas ou máquinas que são empregadas para realizar esta operação.”
(MOOERS, 1951, p. 21, tradução nossa).
Os sistemas de recuperação de informação viabilizam o acesso aos documentos, a
partir da execução de tarefas de representação da informação. Tal processo se materializa pela
representação e, também, pela recuperação das informações representadas e dos documentos
armazenados com a finalidade de atender às necessidades dos usuários (SOUZA, 2006).
A recuperação de documentos e informações em bases de dados é um assunto
amplamente discutido pelos profissionais da Ciência da Informação (FERNEDA, 2003;
BRANSKI, 2004; CHU, 2010). Na conjuntura da Ciência da Informação, a recuperação de
informação (RI) é uma operação por meio da qual são selecionados documentos a partir de
um acervo, um repositório ou uma base de dados. Segundo Ferneda (2003, p. 14), “há ainda
autores que conceituam a recuperação de informação de forma muito mais ampla, ao
subordinar à mesma o tratamento da informação (catalogação, indexação, classificação)”.
Pode-se dizer que a RI tem sido utilizada para designar a busca de literatura (LANCASTER,
WARNER, 1993; FERNEDA, 2003) em bases de dados bibliográficas.
Atualmente, a recuperação de informação segue o conceito do two steps information
retrieval ou recuperação de informação em duas etapas. Gonzalez de Gomez (2004, p. 56)
explica esses dois steps, ao afirmar que “o primeiro step consistiria em um dispositivo de
representação que descreve, sumariza e codifica as fontes primárias de informação para
facilitar sua busca seletiva e sua localização efetiva” e que o segundo step, seria a localização
3568
e disponibilização das fontes primárias escolhidas, nelas mesmas, dando acesso a seu texto
completo.
4 DESENVOLVIMENTO, RESULTADO E CONSIDERAÇÕES
Como resultado desta pesquisa em nível de mestrado, foi desenvolvido um software
livre que foca na recuperação de artigos científicos digitais por meio da disponibilização de
links, dependendo do termo de busca pesquisado, e remete o usuário à fonte externa, que
contém os arquivos digitais disponíveis para download. O software foi denominado “Base de
Dados Referencial de Artigos Científicos” (BADRAC) e está hospedado no endereço
eletrônico http://badrac.herokuapp.com.
Este está dividido em duas interfaces: a primeira, disponível apenas para o gestor da
base, é formada pelo menu administrativo, que tem como função principal o cadastro das
referências dos artigos. A segunda, disponível para qualquer usuário, é formada pelo
mecanismo de recuperação de informação ou de busca.
Para o desenvolvimento da ferramenta, foi feito um estudo prévio no código fonte e
base de dados dos software Open Journal System (OJS) e DSpace. Esses dois sistemas são
exemplos de software livre que auxiliam na produção e disseminação da informação
científica. Embora ambos possuam características de bases de dados de fonte, e não de
referência, a lógica usada no desenvolvimento do mecanismo de busca e no processo de
representação da informação é similar.
Outra fonte de estudo usada para o desenvolvimento da pesquisa foi o padrão de
metadados Dublin Core, que auxiliou a criação do Modelo de Entidade-Relacionamento
(MER) para a descrição e representação lógica das informações na base de dados. Os
metadados auxiliam a construção de uma base de dados por meio da descrição da realidade,
representando logicamente as informações armazenadas nas bases de dados.
O MER tem por base a descrição de algo do mundo real realizada por intermédio de
um conjunto de objetos chamados “entidades” e pelo conjunto de “relacionamentos” entre
esses objetos. Entidade é uma coisa (física ou conceitual) do mundo real. Além disso, as
entidades possuem “atributos”, que são propriedades particulares que as descrevem. Os
valores assumidos por cada atributo descrevem as entidades e formam o conjunto de dados
armazenados na base de dados (ELMASRI; NAVATHE, 2005). Esses valores são as
representações da informação, que podem ser a informação de fato, ou o fornecimento de
pontos de acesso ao texto, ao documento, a informação completa.
3569
Este software foi desenvolvido sob a plataforma Linux Ubuntu 12.4 LTS por meio da
linguagem de programação Ruby on Rails versão 4.0.2 e sistema gerenciador de banco de
dados PostgreSQL versão 9.1.13. Ele pode ser acessado em qualquer computador ou
dispositivo móvel, independente do sistema operacional, desde que o faça por meio dos
navegadores Google Chrome (v. 34.0 ou superior) ou Mozilla Firefox (v. 31.0 ou superior).
O resultado deste trabalho se caracteriza como software livre, pois o código fonte está
hospedado no GitHub – um repositório que tem como função essencial o armazenamento e o
compartilhamento de códigos abertos.
A partir da utilização da Ferramenta pesquisadores, grupos de pesquisa ou interessados
podem criar bases de dados que referenciem apenas artigos de uma linha ou assunto
específico ou, analogamente, um programa de pós-graduação, independentemente da sua área
de atuação, pode subsidiar estudos e propostas ao referenciar a produção de artigos daquela
área em particular. Ou seja, sendo um software livre, pode ser manipulado tanto por uma
universidade/faculdade quanto por um docente ou discente; é livre para que qualquer um que
tenha interesse em criar uma base de dados referencial personalizada às suas necessidades
usufrua de seus benefícios.
O cadastro de referências de artigos é feito no menu administrativo e necessita seguir
uma ordem lógica e compreensível daquilo que está sendo armazenado. Primeiro, pelo menos
um periódico necessita ser cadastrado e, a partir de então, edições podem ser a ele vinculadas.
Um periódico pode ter várias edições, mas uma edição pode pertencer a apenas um único
periódico. Depois de realizado os cadastros dos periódicos e suas respectivas edições, as
referências dos artigos podem ser armazenadas. Um artigo pertence a uma edição que está,
por sua vez, vinculada a apenas um periódico.
Com o artigo cadastrado, autores e palavras-chave podem ser vinculados. Um artigo
pode ter sido escrito por diversos autores e um autor por ter escrito mais de um artigo. Essa
mesma lógica é usada para o atributo palavra-chave. Assim, a descrição de algo do mundo
real, nesse caso, artigos científicos, está de acordo com a percepção do usuário, evitando
possíveis erros de busca provenientes de uma tarefa cadastral mal executada.
A inclusão, atualização e remoção de referências a artigos científicos devem ser
realizadas regularmente. Esse processo cadastral pode ser realizado a qualquer momento. Tão
logo uma nova edição de um periódico de interesse for lançada, a inclusão dos artigos deve
ser feita.
3570
Por fim, deve-se considerar que o software está na versão 1.0.0 beta, e necessita de
mais testes e da contribuição dos usuários e dos pesquisadores da área da Ciência da
Informação.
REFERÊNCIAS
ARAÚJO, V. M. R. H. de. Sistemas de Informação: nova abordagem teórico-conceitual.
Ciência da Informação, Brasília: v. 24, n. 1, 1995. Disponível em:
<http://dici.ibict.br/archive/00000141/01/Ci%5B1%5D.Inf-2004-577.pdf>. Acesso em: 05 jul.
2013.
BRANSKI, Regina Meyer. Recuperação de informações na Web. Perspectivas em Ciência
da Informação, Belo Horizonte, v. 9, n. 1, p. 70-87, jan./jun. 2004. Disponível em:
<http://www.brapci.ufpr.br/documento.php?dd0=0000003315&dd1=e4719>. Acesso em: 09
nov. 2013.
CHU, Heting. Information Representation and Retrieval in the Digital Age. New Jersey:
ASIS& T, 2010.
CUNHA, Murilo Bastos da. Para saber mais: fontes de informação em ciência e tecnologia.
Brasília, DF: Briquet de Lemos/Livros, 2001. 168 p.
ELMASRI Ramez; NAVATHE Shamkant B. Sistemas de Banco de Dados. 4. ed. São Paulo:
Pearson, 2005.
FACHIN, G. R. B. Modelo de avaliação para periódicos científicos on-line: proposta de
indicadores bibliográficos e telemáticos. 2002. 210 f. Dissertação (Mestrado em Engenharia
de Produção) – Universidade Federal de Santa Catarina, Santa Catarina, 2002. Disponível em:
< https://repositorio.ufsc.br/bitstream/handle/123456789/83088/185438.pdf?sequence=1>.
Acesso em: 11 fev. 2014.
FEATHER, J. STURGES, P. International Encyclopedia of Information and Library Science.
Londres. ed. 2, 2003.
FERNEDA, E. Recuperação da informação: análise sobre a contribuição da Ciência da
Computação para a Ciência da Informação. 2003. 137 f. Tese (Doutorado em Ciências da
Comunicação) – Escola de Comunicação e Artes da Universidade de São Paulo, São Paulo,
2003. Disponível em: <http://www.teses.usp.br/teses/disponiveis/27/27143/tde-15032004130230/pt-br.php>. Acesso em: 19 fev. 2013.
GONZALEZ DE GOMEZ, M.N. Novas fronteiras tecnológicas das ações de informação:
questões e abordagens. Ciência da Informação, v. 33, n. 1, p.55-67, jan./abr.2004.
GUEDES, Maria das Graças Targino Moreira. Comunicação científica: o artigo de periódico
nas atividades de ensino e pesquisa do docente universitário brasileiro na pós-graduação.
1998. 387 f. Tese (Doutorado em Ciência da Informação) – Departamento de Ciência da
Informação e Documentação, Universidade de Brasília, Brasília, 1998.
HEEMANN, V. M. Avaliação ergonômica de interfaces de bases de dados por meio de
Checklist especializado. 1997. Dissertação (Mestrado em Engenharia da Produção) –
Universidade Federal de Santa Catarina, Florianópolis, 1997.
3571
LANCASTER, F. W. e WARNER, A. J. Information Retrieval Today. Information
Resources Press, 1993.
MOOERS, C. (1951). Zatocoding applied to mechanical organization of knowledge.
American Documentation, v. 2, n. 1, p.20-32.
REITZ, Joan M. ODLIS – Online Dictionary for Library and Information Science: Libraries
Unlimited, 2014. Disponível em: < http://www.abc-clio.com/ODLIS/searchODLIS.aspx>.
Acesso em: 13 mar. 2014.
ROWLEY, Jennifer. Informática para bibliotecas. Tradução Antonio Agenor. Brasília:
Brinquet de Lemos/Livros, 1994, 307 p.
ROWLEY, Jennifer. A biblioteca eletrônica. Tradução Antonio Agenor. Brasília: Brinquet
de Lemos/Livros, 2002, 399 p.
SOUZA, R. R. Sistemas de Recuperação de Informações e Mecanismos de Busca na
Web: panorama atual e tendências. Perspectivas da Ciência da Informação, Belo Horizonte, v.
11, n. 2, p. 161-173, maio./ago. 2006. Disponível em:
<http://www.scielo.br/pdf/pci/v11n2/v11n2a02.pdf>. Acesso em: 05 jul. 2013.
ZANINELLI, T. B.; CATARINO, M. E. Recuperação de informação no banco de dados da
Embrapa soja: estudo do ainfo. Inf. Inf. ,londrina, v. 9, n. 1/2, jan. / dez. 2004.
3572
MODELO PARA O DESCARTE SEGURO DA INFORMAÇÃO EM SUPORTE
DIGITAL
Silvio Lucas da Silva
Wagner Junqueira Araújo
Resumo: Ao se observar uma das etapas do ciclo de vida da informação como o descarte,
percebe-se que este procedimento em suporte digital difere do descarte de informações em
suporte físico. Verificou-se na literatura uma lacuna sobre este tema na área da Ciência da
Informação, pois ao se descartar uma informação em suporte digital, é preciso considerar o
tipo de mídia na qual a informação está registrada e sua possível reutilização. O descarte deve
considerar os requisitos de gestão de segurança da informação, de tal forma que impossibilite
a recuperação posterior dessa informação. Esta pesquisa teve como objetivo elaborar uma
proposta de modelo para o descarte seguro da informação em suporte digital, considerando
que alguns procedimentos de descarte inviabilizam o uso posterior da mídia informática. No
caso dos sistemas gerenciadores de banco de dados (SGBDs) que são utilizados em sistemas
de informação de muitas organizações, por exemplo, os equipamentos não podem ser
destruídos nem os sistemas podem ser suspensos por longos períodos de tempo para aplicação
de uma técnica de sobrescrita. Esta pesquisa foi desenvolvida como um estudo de caso,
descritiva, com coleta de dados implementada de forma empírica realizada por anotações de
testes de laboratório. Como resultado é apresentado uma proposta de modelo que leva em
conta as necessidades das organizações fundamentada na literatura e nos resultados dos testes
de laboratório.
Palavras-chave: Gestão da informação e do conhecimento. Tecnologia da informação e
comunicação. Gestão da segurança da informação. Documento digital.
Abstract: By observing one of the stages of the information life cycle such as the disposal,
we found that this procedure in digital support differs from the disposal of information on
physical support. A gap was noticed in the literature on this topic in the field of information
science, because when it is necessary to discard some information in digital support, we need
to consider the type of media on which the information is recorded and its possible reuse.
Disposal should consider the requirements of information security management in such a way
that precludes the subsequent recovery of this piece of information. This research aimed to
develop a model proposal for the secure discard of information in digital support taking into
account that some disposal procedures make unviable the subsequent use of the media. In the
case of databases management system (DBMSs) that are used in information systems of many
organizations, for example, the pieces of equipment cannot be destroyed systems and the
systems cannot be suspended for long periods of time for applying an overwriting technique.
This research was conducted as a case study, descriptive, whose data collection was
implemented empirically performed by notes of laboratory tests. As a result, it is presented a
model proposal that considers the organizations needs based on the literature and on the
results of laboratory testing.
Keywords: Information and knowledge management. Information and communication
technology. Information security management. Digital Document.
1 INTRODUÇÃO
A sociedade sempre passa por diferentes transformações em todas as áreas do
conhecimento. Nestas transformações, a informação assume um papel de destaque não só
para as pessoas, mas também para as organizações.
3573
Dentro deste contexto, as tecnologias da informação e comunicação (TICs)
contribuíram para o desenvolvimento da chamada “sociedade da informação”, através das
mais diversas formas como, por exemplo, dispositivos de hardware e sistemas de software
para disseminação, armazenamento, e recuperação da informação. Conforme ressaltam
Capurro e Hjørland (2007, p. 149), “é o surgimento da tecnologia da informação e seus
impactos globais que caracterizam a nossa sociedade como uma sociedade da informação”.
Sendo a informação definida como um conhecimento inscrito de forma impressa ou
digital em um suporte (LE COADIC, 2004), ela necessita seguir os preceitos do ciclo de vida
da informação, como caracteriza Beal (2008), através de sete etapas distintas: identificação
das necessidades e dos requisitos, obtenção, tratamento, distribuição, uso, armazenamento e
descarte.
Ao se observar uma das etapas do ciclo de vida da informação, “o descarte”, percebese que este (em suporte digital) difere do descarte de informações em suporte físico. Descartar
a informação em suporte físico (papel) pode ser realizado através de processos
mecânicos/manuais como fragmentação e/ou incineração, enquanto a informação em suporte
digital carece de metodologias próprias. Deve-se ter o cuidado para evitar que a informação
gravada em mídia digital seja recuperada, posteriormente, por terceiros não comprometendo
assim sua confidencialidade.
Foi verificado que existe uma lacuna sobre esse tema no campo da Ciência da
Informação (CI), tendo esta pesquisa o objetivo de elaborar uma proposta de modelo para o
descarte seguro da informação em suporte digital, sendo desenvolvida em nível de mestrado.
2 O DESCARTE DE INFORMAÇÕES EM DISPOSITIVOS DE ARMAZENAMENTO
DIGITAL
A informação em suporte digital encontra-se registrada em diversos dispositivos
informáticos, por exemplo: discos rígidos (Hard Disk Drives – HDs), pen drives, cartões de
memória, CDs, DVDs, etc., denominados de dispositivos de armazenamento. Estes
dispositivos são constituídos por um material específico no qual a informação fica
efetivamente registrada: mídias magnéticas ou mídias em estado sólido. O Quadro 1
exemplifica o tipo de mídia utilizada nos dispositivos de armazenamento.
QUADRO 11 – Dispositivo informático X Tipo de mídia utilizada
Dispositivo informático
Disco Rígido (Hard Disk – HDD)
Mídia utilizada para
armazenamento de
informações
Magnética
Exemplo de utilização da tecnologia
Computadores, notebooks, storages
3574
Pen Drive
Memórias FLASH
Cartões de Memória (internos ou
externos)
Solid State Drive (SSD)
Fitas Magnéticas
(LTO, DAT)
Compact Disks (CDs), Digital
Versatile Disks (DVDs), BDs (BluRay Disks) - regraváveis ou não
Memórias FLASH
Memórias FLASH
Magnética
Óptica
Armazenamento e transporte de
documentos
Câmeras
fotográficas
digitais,
tablets, smartphones
Notebooks compactos
Cópias de segurança (backup)
Cópias de segurança (backup), CDs
de áudio / filmes / jogos para
computador / vídeo games, dentre
outros.
Fonte: Elaborado pelos autores.
Com o objetivo de organizar as informações registradas, os dispositivos de
armazenamento utilizam-se de tecnologias para gerenciar a gravação das informações,
denominadas sistemas de arquivos como, por exemplo, FAT, NTFS (criados pela Microsoft),
EXT2, EXT3, EXT4 e ReiserFS (pertencentes aos sistemas operacionais UNIX e LINUX),
além das tecnologias de armazenamento utilizadas em storages127, como Storage Area
Network (SAN), entre outras.
Estas se utilizam de uma tabela (um índice), gravada em uma área determinada da
mídia, que permite ao sistema operacional recuperar as informações disponíveis, seguindo um
mecanismo de endereçamento específico de cada tecnologia. Ao apagar informações, os
sistemas de arquivos removem a informação presente neste índice, ou seja, apagam somente a
informação de onde o arquivo está localizado fisicamente na mídia e não a informação em si.
Consequentemente, a informação gravada continua intacta, sendo passível de recuperação.
Farmer e Venema (2007, p. 131) afirmam que “uma grande quantidade de informações
excluídas podem ser recuperadas [...], mesmo quando essas informações foram excluídas há
muito tempo”. Quando se trata da gestão documentos digitais, tal característica não está de
acordo com as recomendações feitas pelo Conselho Nacional de Arquivos (CONARQ) para a
eliminação da informação:
[...] a eliminação deve ser realizada de forma a impossibilitar a recuperação
posterior de qualquer informação confidencial contida nos documentos
eliminados, como, por exemplo, dados de identificação pessoal ou
assinatura; todas as cópias dos documentos eliminados, inclusive cópias de
segurança e cópias de preservação, independentemente do suporte, deve ser
destruídas. (CONARQ, 2011, p.30).
Semelhante às questões ligadas ao espaço utilizado por documentos físicos em um
arquivo, o espaço liberado por um documento digital após o seu descarte pode ser ocupado
127
Storages são dispositivos que permitem o armazenamento de grandes volumes de informações de
forma descentralizada.
3575
por novos documentos. Consequentemente, descartar a informação digital, além de satisfazer
à confidencialidade (ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 2006), libera
espaço nos dispositivos de armazenamento.
Ao descartar-se a informação em suporte digital, é preciso considerar o tipo de mídia
na qual a informação está registrada e sua possível reutilização. O descarte deve considerar os
requisitos de gestão de segurança da informação, de tal forma que impossibilite a recuperação
posterior dessa informação (seja esta recuperação de forma intencional ou não).
De acordo com o National Institute of Standards and Technology (2012, p. 39,
tradução nossa), o termo sanitização é utilizado para descrever um processo capaz de “[...]
tornar o acesso aos dados presentes na mídia inviáveis para um dado nível de esforço”, sendo
este termo utilizado para identificar diferentes técnicas responsáveis por remover, de forma
segura, informações existentes nos diversos dispositivos de armazenamento, a exemplo de
discos rígidos, CDs, DVDs, cartões de memória, pen drives, smartphones e tablets, dentre
outros. Nos casos em que a mídia será reutilizada, aplicam-se métodos que se sobrescrevem
às informações, a exemplo da técnica DoD 5220.22M, que consiste em sobrescrever a
informação três vezes (UNITED STATES DEPARTMENT OF DEFENSE, 1995) e técnica
criada por Peter Guttman, que consiste em sobrescrever a informação trinta e cinco vezes
(DIESBURG; WANG, 2010) através de aplicativos como o File Shredder 128. Para os casos
onde a mídia não será reutilizada, aplicam-se as técnicas de fusão, fragmentação, lixamento,
pulverização, banho de ácido e desmagnetização, que podem variar de acordo com o tipo de
mídia a ser descartada ou necessidade da organização que está descartando estas informações.
3 DESENVOLVIMENTO E PROCEDIMENTOS METODOLÓGICOS
Esta pesquisa foi desenvolvida como um estudo de caso, descritiva, com coleta de
dados implementada de forma empírica realizada por caderno de anotações em laboratório,
tendo como foco identificar procedimentos que viabilizem o descarte seguro da informação
gravada em um disco rígido, utilizando-se de aplicativos específicos para tal fim.
Para o procedimento prático, utilizou-se de uma máquina virtual com o sistema
operacional Microsoft Windows 7 Thin PC (versão de avaliação), com a configuração de 7
GBytes de disco rígido e utilizando-se do sistema de arquivos New Technology File System
(NTFS). A configuração dispunha de 2 GBytes de memória RAM, processador Intel Core i5
128
File Shredder. Disponível em: <http://www.fileshredder.org>. Acesso em: 15 nov. 2013.
3576
64 bits e os softwares WinHEX 16.7129 e o aplicativo gratuito Recuva 130 versão 1.51.1063, que
permite a recuperação de arquivos e pastas removidas previamente. Optou-se pela escolha
das ferramentas WinHEX
e Recuva por serem ferramentas indicadas na literatura.
(BUCHNAN-WOLLASTON et al., 2014; SCHWAMM, 2014; SHAVERS e ZIMMERMAN,
2014). Como sistema gerenciador de banco de dados (SGBD), optou-se pelo aplicativo
Mysql131 versão 5.6.17 também de uso gratuito e por possuir versões de avaliação ou de uso
livre (opensource).
A coleta de dados aconteceu em maio de 2014. A primeira parte do procedimento
consistiu em se gravar um documento texto no disco e na remoção (apagamento) desse
(“ArquivoTeste1.txt”) com a utilização do conjunto de teclas “SHIFT + DELETE” do
computador e sua posterior procura no sistema de arquivos do disco rígido com a ferramenta
Recuva. Verificou-se que mesmo com o apagamento do documento, a informação continuava
presente no disco rígido do computador, conforme indicado na Figura 1, sendo passível de
recuperação posterior.
FIGURA 1 - Documento “ArquivoTeste1.txt” passível de recuperação
Fonte: Dados da pesquisa.
Na segunda etapa do procedimento, buscou-se verificar se as informações
armazenadas em um sistema gerenciador de banco de dados (SGBD) são removidas
completamente de uma tabela após o uso do comando “delete”, presente nos SGBDs. Para a
execução do procedimento, foi criado um banco de dados de nome “teste” e a tabela
“trabalhos_academicos”. Nesta tabela foram inseridos cinco registros com informações e teses
e dissertações da Universidade Federal da Paraíba (UFPB), com o objetivo de se ter
informações para o procedimento.
129
130
131
WinHEX. Disponível em: < http://www.winhex.com/>. Acesso em: 28 abr. 2014
Recuva. Disponível em < https://www.piriform.com/recuva>. Acesso em: 1 mai. 2014.
Mysql. Disponível em <http://www.mysql.com>. Acesso em: 5 mai. 2014.
3577
Após a inserção das informações na tabela, removeu-se o primeiro registro utilizandose o comando “delete” do SGBD e, posteriormente, foi utilizado o aplicativo WinHEX para
verificar se a informação foi removida do disco rígido utilizado na simulação. A Figura 2
demonstra que a informação continua presente no dispositivo, mesmo após a sua exclusão.
FIGURA 2 – Informações excluídas em um SGBD: sem criptografia e criptografada
Fonte: Dados da pesquisa.
Portanto, foram evidenciados que mesmo depois de emitidos os comandos usuais para
eliminação de um arquivo digital, seja em uma tabela de banco de dados ou em sistema de
arquivo, as informações gravadas no disco rígido continuam presentes conforme indicado na
literatura por Farmer e Venema (2007), o que justifica o desenvolvimento de procedimentos
que possibilitem o descarte dessas informações.
Conforme verificado, a exclusão de determinado registro ou documento armazenado
nos SGBDs e no NTFS não resultou na remoção segura da informação ali contida. Portanto,
para as informações registradas em bancos de dados (SGBDs), optou-se por criptografar132 as
informações que foram descartadas com uma senha aleatória, impossibilitando sua
recuperação posterior, pois elas tornaram-se incompreensíveis após a realização do
procedimento, de acordo com o resultado demonstrado na FIGURA 2.
4 CONSIDERAÇÕES E PROPOSTA DE MODELO PARA O DESCARTE SEGURO
Diversas verificações são necessárias para que o descarte ocorra de forma segura, a
exemplo da reutilização da mídia informática e a forma como as informações estão registradas
em documentos digitais ou em registros em um banco de dados. Alguns procedimentos de
descarte inviabilizam o uso posterior da mídia informática. No caso dos SGBDs que são
utilizados em sistemas de informação de muitas organizações, por exemplo, onde os
equipamentos não podem ser destruídos nem os sistemas podem ser suspensos por longos
132
O processo de criptografia consiste em transformar a informação deixando-a ilegível através de
uma chave (senha), onde apenas o detentor dessa chave é capaz de decifrá-la, trazendo novamente
a informação para a sua forma original.
3578
períodos de tempo para aplicação de uma técnica de sobrescrita, os registros precisam ser
criados no formato binário 133 e, para documentos armazenados no sistema de arquivos, em
sistemas em produção, é necessário um estudo mais detalhado, pois a rotina para a exclusão
segura varia de acordo com o sistema operacional utilizado.
Portanto, ao descartar informações em suporte digital, é necessário considerar se a
mídia será reaproveitada ou não. O modelo ilustrado na Figura 3 apresenta uma proposta de
modelo para descarte seguro da informação em suporte digital.
FIGURA 3 – Proposta de Modelo de Descarte Seguro em Suporte Digital
Fonte: Elaborado pelos autores.
Neste trabalho, os níveis de classificação da informação não foram avaliados,
considerando-se apenas que a informação, independentemente de sua classificação, precisa
ser eliminada de forma segura após o fim de sua utilidade. Ademais, a remoção segura em
storages também não foi considerada por esses serem mais complexos e necessitarem, assim,
de um estudo mais aprofundado do seu funcionamento.
Um dispositivo que não foi descartado corretamente pode conter informações que
comprometem a reputação de uma organização. O descarte seguro da informação em suporte
digital é uma temática nova e que precisa ser levada em consideração não somente nas
organizações, mas em toda a sociedade. Não são raros os casos de informações recuperadas
em dispositivos que foram descartados sem que a devida importância fosse dada às
informações ali contidas.
133
Os campos em formato binário permitem que dados em linguagem de máquina sejam registrados
neles.
3579
REFERÊNCIAS
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS – ABNT. ABNT NBR ISO/IEC
27001: Tecnologia da informação — Técnicas de segurança — Sistemas de gestão de
segurança da informação — Requisitos. Rio de Janeiro-RJ: ABNT, 2006.
BEAL, Adriana. Segurança da Informação: princípios e melhores práticas para a proteção
dos ativos de informação nas organizações. São Paulo: Atlas, 2008.
BUCHANAN-WOLLASTON et al. A comparison of forensic toolkits and mass market data
recovery applications. In: NINTH ANNUAL IFIP WG 11.9 INTERNATIONAL
CONFERENCE ON DIGITAL FORENSICS, 9., 2013, Florida, USA. Anais eletrônicos...
Florida: National Center for Forensic Science Orlando, 2013. Disponível em:
<http://eprints.gla.ac.uk/71698/>. Acesso em: 13 jul. 2014.
CAPURRO, Rafael; HJØRLAND, Birger. O conceito de informação. Perspectivas em
Ciência da Informação, v. 12, n. 1, p. 148-207, 2007. Disponível em:
<http://portaldeperiodicos.eci.ufmg.br/index.php/pci/article/view/54/47> Acesso em: 24 nov.
2013.
CONSELHO NACIONAL DE ARQUIVOS. e-ARQ Brasil: Modelo de Requisitos para
Sistemas Informatizados de Gestão Arquivístico de Documentos. Rio de Janeiro, 2011.
Disponível em: <http://www.documentoseletronicos.arquivonacional.gov.br/media/e-arqbrasil-2011-corrigido.pdf>. Acesso em: 16 jul. 2014.
DIESBURG, Sarah; WANG, Andy. A survey of confidential data storage and deletion
methods. ACM Computing Surveys, v. 43, n. 1, art. 2, 2010. Disponível em:
<http://dl.acm.org/citation.cfm?id=1824797>. Acesso em: 18 jul. 2014.
FARMER, Dan; VENEMA, Wietse. Perícia Forense Computacional: Teoria aplicada a
prática. São Paulo: Pearson Prentice Hall, 2007.
LE COADIC, Yves-François. A ciência da Informação. 2. ed. Brasília: Briquet de
Lemos/Livros, 2004.
NATIONAL INSTITUTE OF STANDARDS AND TECHNOLOGY. Guidelines for Media
Sanitization: Recommendations of the National Institute of Standards and Technology
Special Publication Draft 800-88r1. Maryland: U.S Government Printing Office, 2012.
Disponível em: <http://csrc.nist.gov/publications/drafts/800-88-rev1/sp800_88_r1_draft.pdf>.
Acesso em: 15 set. 2013.
SHAVERS, Brett; ZIMMERMAN, Eric. X-W ys Forensics Pr ctitioner’s G ide.
Maryland: Elsevier, 2014.
SCHWAMM, Riqui. Effectiveness of the factory reset on a mobile device. 2014. 67f.
Dissertação (Mestrado em Ciência da Computação) – Department of Computer Science,
Naval Postgraduate School, Monterey, U.S., 2014.
UNITED STATES DEPARTMENT OF DEFENSE. 5220.22-M: National Industrial Security
Program Operating Manual. Washington: U.S. Government Printing Office, 1995.
3580
ACESSIBILIDADE WEB NA PERSPECTIVA DOS SISTEMAS DE RECUPERAÇÃO
DA INFORMAÇÃO
WEB ACCESSIBILITY IN VIEW OF INFORMATION RETRIEVAL SYSTEMS
Lucinéia Souza Maia
Resumo: A Ciência da Informação busca compreender as demandas informacionais dos
indivíduos em suas atividades e contextos através da mediação da informação. Assim, as
informações são organizadas para que possam ser acessadas pelos usuários e, a partir de uma
seleção feita por eles, ser apropriada. O acesso à informação anula a distância entre o usuário
e a informação por meio de um canal, físico ou virtual, que disponibiliza a informação para o
usuário através de suportes, tais como os Sistemas de Recuperação da Informação. Contudo,
problemas de acessibilidade nesses sistemas são fatores de exclusão de usuários,
principalmente aqueles com algum tipo de deficiência. Nesse cenário, em sistemas Web, tais
problemas afetam a navegação, o entendimento, as operações e a interação do usuário com a
informação. Neste sentido, o objetivo deste trabalho é explorar a literatura a fim de verificar
os esforços das pesquisas em Ciência da Informação, no âmbito dos Sistemas de Recuperação
da Informação, no que diz respeito à acessibilidade Web.
Palavras-chave: Acessibilidade Web. Sistemas de Recuperação da Informação. Mediação da
Informação.
Abstract: Information Science seeks to understand the informational demands of individuals
in their activities and contexts through the mediation of information. Thus, the information is
organized so that they can be accessed by users and, from a selection made by them to be
appropriate. Access to information nullifies the distance between the user and the information
through a channel, physical or virtual, which provides information to the user through media
such as Information Retrieval Systems. However, accessibility issues in these systems are
deleting users, particularly those with a disability factors. In this scenario, Web systems, such
problems affect navigation, understanding, operations and user interaction with information.
In this sense, the objective of this study is to explore the literature in order to verify the efforts
of research in Information Science, under the Information Retrieval Systems, with regard to
Web accessibility.
Keywords: Web Accessibility. Information Retrieval Systems. Mediation of Information.
1 INTRODUÇÃO
A mediação da informação engloba a organização, o acesso e a transferência da
informação de forma a satisfazer aos indivíduos em suas demandas informacionais em suas
atividades e contextos (SMIT, 2009). Pode-se dizer, sumariamente, que a organização da
informação é um processo, o acesso é a interação do usuário com a informação anteriormente
organizada e, a transferência é a apropriação da informação pelo usuário.
No entanto, problemas relacionados à acessibilidade podem acarretar em barreiras que
impeçam o acesso às informações pelas pessoas com deficiência, o que afeta a relação
organização-acesso-transferência que são imprescindíveis para a mediação da informação.
3581
De acordo com o W3C/WAI (2005), a acessibilidade diz respeito à diminuição ou à
eliminação de barreiras que impeçam o acesso a algo. No contexto Web, estas barreiras
configuram-se em obstáculos que dificultam a percepção, o entendimento, a navegação e a
interação com o conteúdo pelo usuário (HARPER; YESILADA, 2008).
Neste artigo, o acesso à informação pelo usuário será abordado sob a perspectiva dos
Sistemas de Recuperação da Informação (SRI). Esses sistemas extraem informações a partir
de uma base documental de acordo com a comparação entre as necessidades de informação
dos usuários com os documentos existentes na base de dados. A utilização de SRI é uma
importante estratégia de mediação da informação, assim é necessário que estes sistemas sejam
desenvolvidos de forma a contemplar todos os usuários. Neste contexto, o objetivo deste
trabalho é explorar a literatura a fim de verificar os esforços das pesquisas em Ciência da
Informação, no âmbito dos SRI, no que diz respeito à acessibilidade Web.
2 RECUPERAÇÃO DA INFORMAÇÃO
De acordo com Lopez-Yepes (1991) a informação pode ser contextualizada sob a
perspectiva de um processo comunicativo que abrange as necessidades de informação do
usuário, os canais de informação e sua tipologia, e o conceito de transferência de informação.
As necessidades de informação estão fortemente relacionadas aos usuários da
informação. Segundo Le Coadic (1996, p.39), “O conhecimento da necessidade de
informação permite compreender por que as pessoas se envolvem num processo de busca de
informação”. De acordo com Souza (2006) e Vera (2011), esta busca de informação pode ser
classificada em modelos de recuperação (estratégia de pergunta ou querying) e modelos de
navegação (estratégia de exploração ou brownsing).
No ambiente Web, nos modelos de navegação o usuário percorre os conceitos para
encontrar a informação desejada. Por outro lado, nos modelos de recuperação, o usuário
introduz palavras-chave ou termos relacionados que representam seus questionamentos, o
sistema busca nas bases de dados o conteúdo e oferece ao usuário uma lista com os resultados
pertinentes (VERA, 2011). Essa estratégia é suportada pelos SRI, que será abordado na
próxima seção.
2.1 Sistemas de Recuperação da Informação
Um Sistema de Recuperação da Informação (SRI) lida com a representação e a
recuperação de informações. Os SRI possuem informações que remetem a documentos, com
exceção das bases de dados cadastrais e estatísticas.
3582
No contexto das bibliotecas, os OPAC (Online Public Access Catalog ou Catálogos de
Acesso Público Online) são um tipo de SRI com características próprias (CHU, 2003).
Segundo Marchionini (1992), os OPAC são parte de sistemas integrados que permitem o
acesso remoto a dezenas de catálogos de bibliotecas e outros serviços de informação.
De acordo com Falgueras e Codina (2005), os SRI (incluindo os OPAC) têm os
seguintes componentes: a necessidade de informação, também denominada “pergunta” do
usuário; o documento; as representações, tanto do documento quanto da necessidade de
informação e; uma função de comparação entre a necessidade de informação e a
representação dos documentos. Todos esses componentes devem ser contemplados nas
interfaces do SRI. Assim, essas interfaces geralmente contêm o formulário de consulta, a lista
de resultados e a visualização do documento completo.
2.1.1 Os usuários dos Sistemas de Recuperação da Informação
Segundo Ferreira (1995), a busca da informação é parte de um processo de tomada de
decisão e de solução de problemas pelo indivíduo. Nesse contexto, o usuário busca a
informação com algum objetivo, ou seja, a busca pela informação em si não é um ato isolado,
ela é parte de algum outro processo. Desta forma, é importante conhecer os usuários para
intermediar coerentemente as informações por eles demandadas, compreendendo os contextos
de uso dos sistemas por eles.
Os contextos de uso dos sistemas podem ajudar a nortear a classificação dos usuários,
assim é possível criar grupos de usuários cuja demanda e comportamentos em relação à
informação são parecidos entre si (GUINCHAT; MENOU, 1994).
Outrossim, é fundamental compreender que alguns usuários podem ter características
específicas que devem ser consideradas, tais como deficiências. As deficiências ou limitações
físicas ou intelectuais dos usuários interferem na forma como eles têm acesso à informação.
Os usuários com deficiência física e/ou motora, apresentam dificuldade em usar dispositivos
apontadores como o mouse, usar o teclado ou operar programas que requerem uma resposta
em período de tempo específico. Usuários com deficiência visual têm problemas com
informação mostrada na tela, com o uso de dispositivos apontadores que requerem
coordenação dos olhos-mãos (como o mouse) e problemas relacionados ao contraste de cores.
Já os usuários com deficiência auditiva deparam-se com barreiras na detecção de sons, na
distinção informações com barulho de plano de fundo e quando a aplicação exige entrada de
voz, pois muitas pessoas com problemas de audição também apresentam dificuldades na fala.
Por fim, os usuários com deficiência cognitiva encontram barreiras quando o site exige
3583
reconhecimento e retenção de informação, compreensão, envolvimento, identificação, escolha
e implementação de soluções (KAVCIC, 2005; HARPER; YESILADA, 2008).
Todos esses problemas, típicos do ambiente Web, muitas vezes são replicados em SRI
disponíveis nesse contexto.
Os problemas de acessibilidade afetam não só usuários com deficiência, mas usuários
sem deficiência, porém com limitações temporárias, idosos e usuários iniciantes. Além disso,
fatores relacionados ao hardware, software e ambiente do usuário, também podem interferir
no acesso à informação.
3 ACESSIBILIDADE WEB
A acessibilidade Web refere-se à leis, regulamentações e recomendações que buscam
garantir o acesso ao conteúdo Web por todos os usuários.
No Brasil, a garantia da acessibilidade foi regulamentada por meio do Decreto-Lei
5.296, em dezembro de 2004 (BRASIL, 2004). E, em janeiro de 2005 foi criado o e-MAG
(Modelo de Acessibilidade do Governo Eletrônico) como uma recomendação para padronizar
a acessibilidade dos sites e portais do governo eletrônico (BRASIL, 2005).
Mundialmente, a principal recomendação de acessibilidade Web existente é o WCAG
(Web Content Accessibility Guidelines) (W3C/WAI, 2008), criado pelo W3C/WAI (World
Wide Web Consortium/Web Accessibility Initiative) em 1999.
As recomendações de acessibilidade têm como objetivo encorajar os projetistas a
desenvolverem sites conforme especificações, possibilitando a conformidade com tecnologias
assistivas134 para que usuários com deficiência possam interagir com o conteúdo Web
(PACIELLO, 2000; THATCHER et al., 2006; HARPER; YESILADA, 2008). Estas
recomendações também são utilizadas para embasar as avaliações de acessibilidade Web.
As avaliações de acessibilidade Web podem ser realizadas em uma página Web, em
uma coleção de páginas, em processos específicos de uma aplicação Web ou em todo o site.
Para isso diferentes abordagens técnicas podem ser utilizadas, tais como: avaliação com
ferramentas automatizadas, avaliação de especialistas em acessibilidade e testes com usuário
(ABOU-ZAHRA, 2008).
134
Ferramentas que dão suporte ao acesso de pessoas com deficiência na Internet, como por
exemplo, os leitores de tela.
3584
4 ABORDAGENS DE ACESSIBILIDADE EM CIÊNCIA DA INFORMAÇÃO
Esta Seção apresenta um levantamento sobre as abordagens de acessibilidade no
contexto da Ciência da Informação (no escopo da mediação da informação), com foco nos
SRI, a fim de compreender como a acessibilidade Web dos SRI está posicionada nas
pesquisas que envolvem a Ciência da Informação. A pesquisa baseou-se em uma amostra de
26 artigos. Esses artigos foram recuperados a partir do Portal de Periódicos CAPES/MEC 135 e
do Google Acadêmico136. Uma pré-seleção foi realizada através da leitura do título e abstract
dos trabalhos retornados, nessa fase, os trabalhos que tratavam de acessibilidade Web
superficialmente foram desconsiderados. Após, os trabalhos pré-selecionados foram lidos na
íntegra e, novamente selecionados de acordo com a relevância.
Para a interpretação dos dados, os trabalhos foram categorizados em: trabalhos
abordando especificamente acessibilidade Web (53,85%)
e trabalhos abordando
acessibilidade no geral (46,15%). Outrossim, foram categorizados outros três grandes grupos:
bibliotecas (69,23%), Ciência da Informação (19,23%) e SRI (11,54%). Sabe-se que a
biblioteca e o SRI estão inseridos na Ciência da Informação, contudo, para fins desse trabalho,
resolveu-se separá-los.
O QUADRO 1 apresenta os trabalhos relacionados à bibliotecas e acessibilidade Web
(34,61%).
Os trabalhos foram agrupados e apresentados em ordem cronológica de
publicação. Como é possível observar, alguns trabalhos abrangem mais de um grupo.
QUADRO 1 – Trabalhos relacionados à bibliotecas e acessibilidade Web
Biblioteca no
Geral
Casey (1999)
Guenther (2001)
Fulton (2008)
Wijayaratne e Singh (2010)
Booth(2012)
Lee et al. (2012)
Riley-Huff (2012)
Tatomir e Tatomir (2012)
Cervone (2013)
Higgins (2013)
135
136
http://www.periodicos.capes.gov.br/
http://scholar.google.com.br/
Biblioteca
Virtual
Biblioteca Digital
Site da
Biblioteca
3585
Este trabalho limita-se à acessibilidade Web, contudo, como foram muitos trabalhos
relacionados às bibliotecas e acessibilidade no geral (34,61%), resolveu-se investigar as
abordagens relatadas nos artigos, conforme apresentado no Quadro 2.
QUADRO 2 – Trabalhos que abordam bibliotecas e acessibilidade no geral
Abordagem do
Treinamento
Coleção de
bibliotecário Adequação do
Biblioteca de usuários
Material
frente a pessoa Espaço Físico
cegos na
Inclusiva
Adaptado
com deficiência
biblioteca
Ribeiro e Leite (2002)
Calvo (2003)
Del Rio (2008)
De Paula (2009)
Santos e Almeida (2010)
Maia et al. (2011)
Gonçalves (2013)
Kumar e Sanaman (2013)
Malheiros (2013)
No que diz respeito aos trabalhos específicos da Ciência da Informação, 11,53%
abordaram acessibilidade no geral. Esses trabalhos dizem respeito aos serviços de informação
acessíveis (CAREY, 2007; RIBERA et al., 2009; MARTÍN, 2013). Os demais, que referemse à acessibilidade Web (7,69%), dizem respeito ao conhecimento do assunto na Ciência da
Informação (INGLE et al., 2009; COMEAUX, 2001).
As pesquisas realizadas investigando especificamente acessibilidade Web dos SRI não
obtiveram sucesso. Contudo, as pesquisas por acessibilidade Web dos OPAC (que são um tipo
de SRI) foram bem sucedidas (11,53% dos trabalhos). Esses trabalhos, no geral, dizem
respeito aos problemas de acessibilidade Web encontrados nas OPAC e apresentam
estratégias para torná-los acessíveis (VAN BODENGRAVEN; POLLITT 2003; PETERS;
BELL, 2006; ASTLEITNER, 2008).
Dos trabalhos selecionados no Quadro 2, três deles abrangem, dentro dos serviços
oferecidos pela biblioteca, o uso de TIC (Tecnologias de Informação e Comunicação) por
pessoas com necessidades especiais (MAIA et. al, 2011); treinamento de pessoas com
deficiência que incluem os OPAC, recursos de acesso à Web e acesso e uso de ferramentas de
busca e portais da biblioteca (
KUMAR e SANAMAN, 2013) e; no caso da biblioteca inclusiva, proposta por Ribeiro
e Leite (2002), serviços como: consulta do OPAC da biblioteca da Faculdade, acesso à
3586
Internet, consulta de textos digitalizados, consulta de índices ou partes de obras escaneadas
por pessoas com deficiência.
5. CONCLUSÃO
O artigo buscou explorar a literatura a fim de verificar os esforços na Ciência da
Informação que dizem respeito à acessibilidade Web dos SRI. O trabalho não considerou as
publicações da área que referiam-se à acessibilidade Web no geral, ou no aspecto social.
Muitos trabalhos de acessibilidade encontrados referiram-se a bibliotecas. Esses
trabalhos englobaram a adaptação do espaço físico das bibliotecas, a abordagem do
bibliotecário frente a uma pessoa com deficiência no espaço da biblioteca e bibliotecas
inclusivas e bibliotecas especializadas para pessoas com deficiência. Neste último caso, a
adaptação de materiais para pessoas com deficiência foi abordada quase que exclusivamente
nessas bibliotecas. Outrossim, com relação à adaptação de material, também foi possível
perceber uma preocupação em atender pessoas com vários tipos de deficiência, incluindo
deficiência intelectual e auditiva.
No que diz respeito à acessibilidade Web dos SRI, foram encontrados trabalhos
relacionados à biblioteca digital, à OPAC e ao uso de TIC por pessoas com deficiência. Esses
trabalhos não foram maioria, contudo, qualitativamente os trabalhos foram muito bem
colocados.
Conforme foi relatado, não foram encontrados trabalhos que abordam especificamente
acessibilidade Web como requisito de um SRI, entretanto, isso não quer dizer também que os
SRI não são acessíveis, já que profissionais de TI são contratados para o desenvolvimento
desses.
Por fim, entende-se que, garantir o direito de acesso à informação a todos os usuários
independente de suas limitações também é um papel dos profissionais que desenvolvem
estratégias para mediar a informação. A Internet é um mecanismo importante na inclusão de
pessoas com deficiência e os SRI podem contribuir para a intermediação da informação para
esses usuários, assim, é fundamental que a acessibilidade Web seja mais difundida entre a
comunidade de especialistas em informação.
REFERÊNCIAS
ABOU-ZAHRA, S. Web Acessibility Evaluation, In: HARPER, S.; YESILADA, Y. (editors).
Web Accessibility – A Foundation for Research. London: Springer-Verlag Limited, 2008. p.
79-106.
3587
ASTLEITNER, W. Accessibility vs. Aleph OPAC. JKU Linz/Information Management, nov.
2008. Disponível em:
<http://www.exlibrisgroup.org/download/attachments/13766794/access_webopac.pdf?version
=1&modificationDate=1228400463000> Acesso em: jan.2014
BELL, L.; PETERS, T. AccessiblelT: Making OPACs blow. Computers in libraries, v.26, n.8,
p. 20-22, 2006.
BOOTH, C. (Ed.). Making Libraries Accessible: Adaptive Design and Assistive Technology.
American Library Association, 2012.
BRASIL. Decreto-lei 5296, de 2 de dezembro de 2004. Regulamenta as Leis n°s 10.048, de 8
de novembro de 2000, que dá prioridade de atendimento às pessoas que especifica, e 10.098,
de 19 de dezembro de 2000, que estabelece normas gerais e critérios básicos para a promoção
da acessibilidade. Publicado no D.O.U, nº 232, 03 de dezembro de 2004.
BRASIL. Recomendações de Acessibilidade para a Construção e Adaptação de
Conteúdos do Governo Brasileiro na Internet. e-MAG, Acessibilidade de Governo
Eletrônico. Modelo de Acessibilidade. Departamento de Governo Eletrônico, Secretaria de
Logística e Tecnologia da Informação, Ministério do Planejamento, Orçamento e Gestão.
Doc. de Ref., versão 2.0. 2005.
BRASIL. e-MAG Modelo de Acessibilidade em Governo Eletrônico. Ministério do
Planejamento, Orçamento e Gestão, Secretaria de Logística e Tecnologia da Informação;
Ministério da Educação, Secretaria de Educação Profissional e Tecnológica - Brasília : MP,
SLTI, 2011.
CALVO, F. J. M. La biblioteca pública y los lectores con discapacidad visual: una reflexión
sobre el caso español. Integración: Revista sobre ceguera y deficiencia visual, v.41, p. 15-21,
2003.
CAREY, K. The opportunities and challenges of the digital age: A blind user's perspective.
Library Trends, v. 55, n. 4, p. 767-784, 2007.
CASEY, C. Accessibility in the virtual library: Creating equal opportunity Web sites.
Information technology and libraries, v. 18, n. 1, p. 22-25, 1999.
CERVONE, F. H. Selected practices and tools for better accessibility in digital library
projects. OCLC Systems & Services, v. 29, n. 3, p. 130-133, 2013.
CHU, H. Information representation and retrieval in the digital age. Information Today,
Inc., 2003.
COMEAUX, D.; SCHMETZKE, A. Accessibility of academic library web sites in North
America: Current status and trends (2002-2012). Library Hi Tech, v. 31, n. 1, p. 8-33, 2013.
DE PAULA, S. N. Acessibilidade à Informação em Bibliotecas Universitárias e a
Formação do Bibliotecário. Dissertação. Centro de Ciências Sociais e Aplicadas, Pontifícia
Universidade Católica de Campinas, Campinas, 2009.
DEL RÍO, M. E. P. Información sin barreras, formación para ti. La experiencia de la
Biblioteca Insular Especializada en Discapacidad de Tenerife. p. 423 – 431, 2008.
3588
FALGUERAS, E. A.; CODINA, L. Bases de datos documentales: características, funciones
y método. Madrid: Editorial Síntesis, 2005.
FERREIRA, S. M. S. P. Novos paradigmas e novos usuários de informação. Ciência da
Informação, v. 25, n. 2, p. 1-10, 1995.
FULTON, C. Web accessibility, libraries, and the law. Information Technology and
Libraries, v. 30, n. 1, p. 34-43, 2011.
GONÇALVES, E. F. P. As Tecnologias Assistivas e a Atuação do Bibliotecário como
Intermediário entre as Fontes de Informação e o Deficiente Visual. Múltiplos Olhares em
Ciência da Informação, v. 2, n.1, p. 1-9, 2013.
GUENTHER, K. Making your digital library accessible. Computers in Libraries-Westport,
v.21, n. 9, p. 61-63, 2001.
GUINCHAT, C.; MENOU, M. Introdução geral às ciências e técnicas da informação e
documentação. 2. ed. Brasília: IBICIT, 1994.
HARPER, S.; YESILADA, Y. Web Accessibility and Guidelines. In: HARPER, S.;
YESILADA, Y. (Ed.). Web Accessibility – A Foundation for Research. London: SpringerVerlag Limited, 2008. p. 61-78.
HIGGINS, S. Access to Digital Libraries for Disadvantaged Users. Library Philosophy and
Practice (e-journal). Paper 916, 2013. Disponível em:
<http://digitalcommons.unl.edu/libphilprac/916> Acesso em: jan. 2014.
INGLE, E. et al. How Accessible Are Public Libraries' Web Sites? A Study of Georgia Public
Libraries. Journal of Access Services, v.6, n.1, p.101-115, 2009.
ISO/IEC 9126/1. Information technology—Software product quality — Part 1: Quality
model, 2001.
KAVCIC, A. Software Accessibility: Recommendations and Guidelines. In: Computer as a
Tool, The International Conference on EUROCON 2005. Proceeding... Belgrade, Serbia and
Montenegro, IEEE, v.2, p.1024 -1027, 2005.
KUMAR, S.; SANAMAN, G. Orientation/Training Programmes in NCR Libraries for People
with Disabilities: Study of User’s Perspective. Library Philosophy and Practice (e-journal).
Paper 927, 2013. Disponível em: <http://digitalcommons.unl.edu/libphilprac/927> Acesso
em jan. 2014.
LE COADIC, Y. F. A ciência da informação. Briquet de Lemos Livros, 1996.
LEE, S. et al. Revising Cataloging Rules and Standards to Meet the Needs of People with
Disabilities. Library Resources & Technical Services, v.57, n. 1, p.18-29, 2013.
LOPEZ-YEPES, J. El desarrollo de los sistemas de información y documentación. Revista
general de información y documentación, v.1, n.2, p. 23-34., 1991.
MAIA, M. A. et al. O Bibliotecário como Mediador no Processo de Transferência da
Informação para Pessoas com Deficiência Visual. In: XXIV Congresso Brasileiro de
Biblioteconomia, Documentação e Ciência da Informação, Maceió, 2011. Anais...
3589
MALHEIROS, T. M. C. Necessidade de informação do usuário com deficiência visual: um
estudo de caso da biblioteca digital e sonora da Universidade de Brasília. Dissertação Faculdade De Ciência Da Informação - Universidade De Brasília. Brasília, 2013.
MARCHIONINI, G. Interfaces for end-user information seeking. Journal Of The American
Society For Information Science, v.43, n. 2, p. 156-163, 1992.
MARTÍN, S. G. Visibilidad y accesibilidad web de las tesinas de licenciatura en
Bibliotecología y Documentación en la Argentina. Información, cultura y sociedad, v.28,
2013.
PACIELLO, M. G. Web accessibility for people with disabilities. CMP Books. KansasUSA, 2000.
RIBEIRO, A.; LEITE, J. Contributos para um conceito de" Biblioteca Inclusiva". Integrar, n.
19, p. 50-56, 2002, Disponível em: <http://repositorio-aberto.up.pt/handle/10216/18473 >
Acesso em: jan. 2014.
RIBERA, M. et al. Web Content Accessibility Guidelines 2.0 - A further step towards
acessible digital information. Program: Eletronic Library and Information Systems, v. 43, n.
4, p. 392-406, 2009.
RILEY-HUFF, D. A. Chapter 4: Web Accessibility and Universal Design. In: Library
Technology Reports, v.48, n. 7, p. 29-35, 2012.
SANTOS, C. G. D.; ALMEIDA, E. M. Estudo do usuário com deficiência visual: um
importante instrumento sócio-inclusivo de pesquisa e formação para o profissional de
biblioteconomia perante as necessidades informacionais de pessoas com deficiência. XVI
Seminário de Pesquisa do CCSA, 2010.
SMIT, J. W. Novas abordagens na organização, no acesso e na transferência da informação.
In: SILVA, H. de C.; BARROS, M. H. T. C. de (Org.). Ciência da Informação: múltiplos
diálogos. Marília: Oficina Universitária UNESP, p. 57-66, 2009.
SOUZA, R. R. Sistemas de recuperação de informações e mecanismos de busca na web:
panorama atual e tendências. Perspectivas em Ciência da Informação, v.11, n.2, p. 161-173,
2006.
TATOMIR, J. N.; TATOMIR, J. C. Collection Accessibility: A Best Practices Guide for
Libraries and Librarians. Library Technology Reports, v.48, n.7, p.36-42, out, 2012,
THATCHER, J. et al.. Web Accessibility: Web Standards and Regulatory Compliance.
Springer-Verlag New York - USA, 2006.
VAN BODENGRAVEN, M.; POILITT, C. Making Websites and OPACS accessible. IFLA
journal, v. 29, n. 4, p. 357-363, 2003.
VERA, T. P. Organización y Representación del Conocimiento: Incidencias de las
Tecnología de la Información y Comunicación. Buenos Aires: Alfagrama, 2011.
W3C/WAI. Introduction to Web Accessibility. 2005. Disponível em:
<http://www.w3.org/WAI/intro/accessibility.php>. Acesso em: set. 2013
3590
W3C/WAI. Web Content Accessibility Guidelines (WCAG) 2.0. 2008. Disponível em:
<http://www.w3.org/TR/WCAG20>. Acesso em: set. 2013
WIJAYARATNE, A. ; SINGH, D. Is There Space in Cyberspace for Distance Learners with
Special Needs in Asia? A Review of the Level of Web Accessibility of Institutional and
Library Homepages of AAOU Members. International Information and Library Review,
v. 42, n. 1, p. 40-49, 2010.
3591
ANÁLISE DA AÇÃO DE INFORMAÇÃO RELACIONAL NO LAVID DA UFPB
ANALYSIS OF ACTION OF RELATIONAL INFORMATION IN LAVID/UFPB
Emy Pôrto Bezerra
Ítalo José Bastos Guimarães
Zayr Cláudio Gomes da Silva
Resumo: Na sociedade contemporânea a colaboração científica vem sofrendo alterações nas
suas estruturas dinâmicas através das redes de coautoria. A rede de coautoria dos docentes que
compõem o Laboratório de Aplicações de Vídeo Digital (LAViD) da UFPB é analisada
através da Análise Estrutural de Redes Sociais, a partir de métricas e representação gráfica
geradas pelo software NodeXL. Tal rede é considerada aqui como produto da ação de
informação relacional que compõe o Regime de Informação do LAViD. São descritas as
propriedades (composição, estrutura e dinâmica) dessa rede. Foram analisadas métricas que
compõem essas propriedades, como: grau de conexão, centralidade, laços sociais, agregação e
desagregação. Percebemos uma forte centralização da coautoria a um determinado ator, com
aparecimento de laços fortes e fracos entre este e a maioria dos atores, evidenciando o
potencial grau de liderança deste na rede. Também pudemos observar um processo inicial de
clusterização, demonstrado a partir de um movimento de cooperação, adaptação e
organização por parte de alguns atores.
Palavras-chave: Ação de Informação Relacional. Coautoria. Análise de Redes Sociais.
Abstract: In contemporary society scientific collaboration has undergone changes in its
dynamic structures through co-authorship networks. The co-authorship network of teachers
comprising the Laboratory of Digital Video Applications (LDVA) UFPB is analyzed through
the Structural Analysis of Social Networks from metrics and graphical representation
generated by NodeXL software. This network is considered here as a product of the action of
relational information that makes up the Scheme Information LDVA. (Composition, structure
and dynamics) properties of such a network are described. Were analyzed metrics that make
up these properties, such as degree of connection, centrality, social ties, aggregation and
disaggregation. We noticed a strong centralization of co-authoring a particular actor, with the
emergence of strong and weak ties between this and most actors, highlighting the potential
degree of leadership in this network. We also observe an initial process of clustering, shown
from a cooperative movement, adaptation and organization on the part of some actors.
Keywords: Action Relational Information. Coauthoring. Social Network Analysis.
1 INTRODUÇÃO
Com o presente artigo, propomos analisar a ação de informação relacional no âmbito
do Regime de Informação (Ri) do Laboratório de Aplicações de Vídeo Digital (LAViD) do
Departamento de Informática (DI) da Universidade Federal da Paraíba (UFPB).
Ao longo de sua história, a análise dos diversos fenômenos relacionados ao objeto da
informação – permanece sendo o principal foco da pesquisa em Ciência da Informação (CI).
No que se refere a Políticas e Gestão de Informação, estamos testemunhando um crescente e
frutífero debate na elaboração do conceito de Regime de Informação (Ri). Este, por natureza,
é constituído a partir de “ações de informação” realizadas por grupos de atores sociais no
3592
contexto onde estão definidos os elementos que compõem o fluxo da produção, organização,
comunicação e transferência de informações, em um dado espaço social.
A partir da descrição e interpretação da ação de informação relacional que constituem
o Ri do LAVID, será possível situar a produção do laboratório no âmbito do Ri da sociedade
em rede, bem como, especular sobre o desenvolvimento de uma inteligência coletiva no
ambiente que é circunscrito por um específico Ri. Deste modo, trazemos aqui um resultado
parcial da pesquisa ora em andamento. Esperamos aprofundar a discussão no tema, sem a
pretensão de fazer um mapeamento exaustivo, mas preocupando-se em analisar a construção
de espaços públicos de pesquisa nos quais se desenvolvam Ri.
2 DESENVOLVIMENTO
Na sociedade contemporânea, o campo teórico da gestão da informação abre cada vez
mais a discussão sobre o valor da informação e a democratização do acesso às suas fontes na
web. Neste contexto, autores como Frohmann (1984), González de Gómez (2012), Freire
(2013), Braman (2004) e Ekbia (2009) vêm levantando o debate sobre as ações de informação
que compõem o Ri de tipos de formações (instituições públicas ou privadas) sociais, na
sociedade em rede. O presente artigo sustenta-se na afirmação de González de Gómez (2003,
p. 34), que define Regime de Informação como
um modo de produção informacional dominante numa formação social,
conforme o qual serão definidos sujeitos, instituições, regras e autoridades
informacionais, os meios e os recursos preferenciais de informação, os
padrões de excelência e os arranjos organizacionais de seu processamento
seletivo, seus dispositivos de preservação e distribuição.
Aqui podemos inserir os laboratórios de fomento à pesquisa científica em instituições
públicas federais. Neste sentido, laboratórios como o LAVID podem ser entendidos como
exemplos de espaços de produção e compartilhamento de informação e conhecimento,
cabendo sua análise à luz do conceito de Ri. Criado em 2003, o LAVID é atualmente uma
referência nacional e internacional em desenvolvimento de tecnologia da TV Digital no país,
contando com a colaboração de mais 60 jovens pesquisadores que estão interconectados com
pesquisadores de todo o Brasil e do mundo, trazendo as atuais tendências tecnológicas
mundiais nas áreas de vídeo e TV Digital.
2.1 Sobre o Regime de Informação no LAVID
O conceito de Ri vem sendo desenvolvido por diversos pesquisadores da CI nos
últimos anos, sempre com características gerais similares, mas sem analisar as
particularidades e necessidades do contexto (ambiente) onde se originam ou se instalam.
3593
Quando analisado no contexto acadêmico, prevalece no Ri as características do trabalho
científico: a produção e o intercambio crítico de conhecimentos e experiências.
Tendo em vista que as ações de informação são essencialmente um fenômeno social,
pois são partes integrantes da vida diária das comunidades e organizações, torna-se cada vez
mais evidente que a integração entre essas ações e as tecnologias “colaborativas” transporte
consigo uma profunda revisão no Ri de uma determinada instituição.
Assim, a elaboração e desenvolvimento deste artigo parte inicialmente da premissa de
que a análise das ações de informação em um determinado “espaço de informação”, não só
configura o desenvolvimento do Ri deste espaço, como também estabelece o processo de
construção de uma inteligência coletiva entre os atores sociais participantes da rede que o
comporta e o “alimenta”.
2.2. Sobre a metodologia
Nossa pesquisa teve caráter exploratório e descritivo. Sendo assim, exploramos e
descrevemos as características da produção colaborativa dos docentes do LAViD e suas
conexões através da Análise Estrutural de Redes Sociais (ARS), a partir de Fragoso et al.,
(2013). Foram analisados os atores (docentes) da rede de coautoria do LAViD, visando
identificar as suas propriedades de composição, estrutura e dinâmica. A metodologia utilizada
para criação da base de dados da rede LAViD ocorreu por meio de quatro etapas: pesquisa
documental da produção em coautoria dos docentes a partir dos seus currículos na Plataforma
Lattes; construção da matriz referente a essa produção; transferência dos dados para o
NodeXL e formatação da rede.
Tomamos como universo da pesquisa a produção científica colaborativa dos
docentes do LAViD em anais de congressos. Também optamos por analisar essa produção
apenas no triênio 2011-2012-2013. Justificamos nossos recortes por serem os anais uma das
principais modalidades de divulgação da produção científica utilizada pelos pesquisadores do
laboratório. Já o triênio pelo fato de ter sido este o último período de avaliação feita pelo
MEC, o que se pressupõe uma atualização dos currículos por parte dos docentes. Como
ferramenta para geração e análise da rede de coautoria do LAViD, utilizamos o software
NodeXL, um software gratuito de código aberto, que permite ser programado e melhorado por
outras pessoas. Ele utiliza o Excel como plataforma principal, tornando mais fácil a
transferência e manipulação dos dados, permitindo a criação de gráficos de rede com boas
visualizações por pessoas que não sejam programadoras.
3594
3 DISCUSSÃO E INTERPRETAÇÃO DOS RESULTADOS PARCIAIS
Foram analisadas as produções em coautoria dos anais de congressos no triênio (2011,
2012, 2013). As propriedades dos dados foram analisadas a partir dos critérios de estrutura,
composição e dinâmica da rede, para ter uma ideia desses critérios por meio de algumas
métricas de ARS. Nesse sentido delimitamos a pesquisa à análise das métricas de laços sociais
(enquanto composição), grau de conexão e centralidade (enquanto estrutura) e agregação e
desagregação (enquanto dinâmica) da rede. A FIGURA 1 apresenta a estrutura da rede
LAViD construída a partir dos dados processados pelo o software NodeXL.
FIGURA 1 – Rede de Coautoria do LAViD
Fonte: Dados da Pesquisa – Gerado pelo NodeXL
3.1 Quanto à Estrutura
No que se refere à estrutura percebemos que o ator 10 possui um alto grau de conexão
na rede, visível na sua produção em coautoria com 11 dos 19 pesquisadores
(aproximadamente 58% do total). Segundo Fragoso et al., (2013, p. 122)
a estrutura compreende a forma da rede e as características que podem ser
extraídas desta (laços sociais e capital social). A composição refere-se à
qualidade dessa forma, ou seja, aos atores determinados e à qualidade de
suas conexões (grau de conexão, densidade, centralidade e centralização). Os
processos dinâmicos das redes são consequência direta dos processos de
interação entre os atores (ordem, caos, agregação, desagregação e ruptura).
O grafo se apresenta com o formato de uma “estrela”, onde um só nó centraliza a
maior parte das conexões. Segundo Fragoso et al. (2013), o grau de conexão é uma descrição
de quantos nós compõem a vizinhança de um determinado nó. Este critério de avaliação
comprova sua popularidade, evidenciando a sua centralidade para a rede como um todo.
3595
3.2 Quanto à Composição
A composição da rede pode ser avaliada através dos laços sociais ou conexões
estabelecidas entre os atores sociais. Granovetter (1973; 1983), por exemplo, discute que os
laços sociais poderiam ser fortes e fracos, na medida em que conecte indivíduos que dividem
valores sociais diferentes. No caso do LAViD e no que se refere a produção científica em
coautoria, os laços mais fortes foram estabelecidos entre o ator 10 e os atores 6, 9, 14, 17 e 18
(esferas na rede) com os quais foram produzidos de seis à dez artigos em coautoria. Laços
mais fracos também ocorrem com outros membros da rede (atores 3, 4, 11, 13 e 16). Os atores
1, 14, 17 e 18 possuem trabalhos em coautoria com outros membros além do ator 10. O que
evidencia o início de uma possível e provável descentralização da rede (clusterização).
3.3 Quanto à Dinâmica
De acordo com Fragoso, Recuero e Amaral (2013), ao se estudar uma rede social é
necessário pensar que a rede, apesar de representar uma estrutura estática, está sempre em
movimento. Por se tratar de um laboratório de pesquisa científico-tecnológica, esse
movimento é uma constante no LAViD. Desde o seu surgimento em 2003, muitos foram os
pesquisadores que já passaram pelo laboratório em seus variados projetos. Os processos
dinâmicos das redes são consequência direta dos processos de interação entre os atores. Redes
são sistemas dinâmicos e, como tais, sujeitos a processos de ordem, caos, agregação,
desagregação e ruptura (NICOLIS; PRIGOGINE, 1989). Por isso, no que se refere à
dinâmica, optamos por analisar critérios de agregação e desagregação na rede com o intuito de
observar como comporta esse fenômeno no LAViD.
Percebemos, portanto, que seis dos dezenove pesquisadores foram incorporados
recentemente ao grupo docente que compõe o LAViD, não possuindo ainda produção em
coautoria relevante para o período analisado, o que pode justificar o aparecimento de alguns
nós isolados na rede (5,7, 8, 12 e 19). Outro motivo que pode justificar esse aparente
“isolamento” é o fato de a análise ter sido feita apenas sobre a produção em coautoria em
anais de congressos, não sendo analisadas outras produções em coautoria como artigos em
periódicos, dissertações defendidas, capítulos de livros etc. A seguir apresentamos a análise
dos resultados supracitados à luz da ação de informação relacional.
3.4 Quanto à Ação de Informação Relacional
A partir da análise dos dados da rede LAViD pudemos compreender a correlação
existente entre ação de informação relacional e a produção científica em coautoria docente no
3596
laboratório. As três propriedades de ARS e suas métricas serviram de subsídio para nossa
interpretação. Elas nos mostram que a partir da estrutura, composição e dinâmica da rede, os
atores interagiram direta e indiretamente entre si no processo de produção em coautoria. Esta
por sua vez, não se mostra uniforme, e sim, centralizada a um único ator da rede, porém
esboçando um processo natural de descentralização ou clusterização. Isso demonstra maior
interação entre os outros atores da rede, caracterizando-se como uma ação de informação
relacional.
Para González de Gómez (2003) as ações relacionais são “realizadas por sujeitos
articuladores ou ‘relacionantes’, que executariam em grande parte uma forma de trabalho que
teria a maior expansão no mundo contemporâneo: o trabalho relacional ou interativo para
transformar a informação e a comunicação que orientam o agir coletivo”. Interpretamos
aqui esse agir coletivo como o processo de clusterização da rede, ou seja, a produção em
coautoria com outros membros, e o surgimento de novos “líderes”. Tal processo foi
evidenciado na rede LAViD, uma rede onde seus atores são sujeitos sociais articuladores e
reflexivos que exercem suas atividades sociais com o intuito de transformar a informação e a
comunicação que orientam o agir coletivo para produção científica em coautoria.
5 CONSIDERAÇÕES FINAIS
Atualmente, estamos no início do caminho sobre a análise de dados de produção em
coautoria na internet, principalmente com base em Análise de Redes Sociais. As discussões
conceituais sobre a produção científica em coautoria, sua história, enfoques e temáticas,
trazem possibilidades e limitações que se refletem nas escolhas do pesquisador, abrindo
caminho para novos estudos e debates sobre o tema. Chamamos a atenção para o nosso
recorte (a produção docente LAViD no triênio 2011-2012-2013). Este fator certamente
interferiu de forma profunda na estrutura e dinâmica da rede LAViD. Salientamos que não
foram analisadas aqui todas as produções científicas dos docentes, como: dissertações, artigos
em periódicos científicos, livros, capítulos de livros etc. Apenas as produções em anais de
congressos no referido período, o que interferiu tanto na sua forma estrutural, quanto no
direcionamento das escolhas das métricas para sua análise.
Deste modo, sugerimos pesquisas que busquem alargar a rede a partir da inserção de
novas métricas e atores, períodos e tipos de publicações, englobando assim, tanto quem fez
como quem faz parte da Rede LAViD. Para trabalhos futuros, achamos pertinente a análise
das ações de informação formativa e de mediação, além da agregação de outros métodos de
pesquisa aos já existentes, como: etnografia virtual, bibliometria, observação participante,
3597
webometria etc. Isto permitirá um retrato aprofundado e fiel da produção em coautoria nas
instituições de pesquisa científica.
REFERÊNCIAS
BRAMAN, S. The emergent global information policy regime, In: ______ (Ed.) The
emergent global information policy regime. Hampshire, Palgrave, 2004.
EKBIA, H.; EVANS, T. Regimes of information: land use, management, and policy. The
Information Society, v. 2, v. 5, p. 328–343, 2009.
FRAGOSO, S; RECUERO, R; AMARAL, A. Métodos de pesquisa para a internet. Porto
Alegre: Sulinas, 2013.
FREIRE. I. M. Sobre o Regime de Informação no Laboratório de Tecnologias Intelectuais –
LTi. InCID. R. Ci. Inf. e Doc., Ribeirão Preto, v. 4, n. 1, p. 70-86, jan./jun. 2013.
FROHMANN, B. Talking information policy beyond information science: Applying the actor
network theory. In H. A. Olson, & D. B. Ward (Eds.) Proceedings of the 23rd Annual
conference of the Canadian Association for Information Science, 7–10 June 1995,
Edmonton, Alberta. Disponível em:
<http://www.caiscsi.ca/proceedings.1995/frohmann_1995.pdf.>. Acesso em: 12 jul. 2014.
GONZÁLEZ DE GÓMEZ, M. N. Escopo e abrangência da Ciência da Informação e a PósGraduação na área: anotações para uma reflexão. Transinformação, Campinas, v. 15, n. 1,
p.31-43, 2003.
GONZÁLEZ DE GÓMEZ, M. N. Regime de informação: construção de um conceito.
Informação e Sociedade: Estudos, João Pessoa, v. 22, n. 3, p. 43-60, set./dez. 2012.
GRANOVETTER, M. The Strenth of Weak Ties: network theory revisited. Sociological
Theory, v. 1, p.203-233, 1983.
NICOLIS, G.; PRIGOGINE, I. Exploring Complexity: an introduction. New York: W. H.
Freeman end Company. 1989.
3598
BIBLIOTECAS E WEB SEMÂNTICA: ANÁLISE SOBRE O ESTADO DESTE
RELACIONAMENTO
LIBRARY AND SEMANTC WEB: ONE ANALYSIS ON THE STATE OF THIS RELATIONSHIP
Edgar Bisset Alvarez
Resumo: Apresenta-se uma análise sobre quais são as iniciativas adotadas pelas bibliotecas
para se juntar ao movimento de desenvolvimento da Web Semântica. Apresenta-se
brevemente como as Tecnologias de Informação e Comunicação têm impactado nos processos
bibliotecários, e quais são alguns dos principais desafios a enfrentar no processo de adaptação
ao novo contexto da Web Semântica, fazendo uma análise sobre como as bibliotecas
poderiam beneficiar o desenvolvimento da Web semântica e apresentaram-se algumas ações
baseadas em exemplos desenvolvidos pelas bibliotecas até a atualidade, para alcançar este
propósito, analisou-se a evolução da Web nas últimas décadas, considerando as principais
características, vantagens e desvantagens que oferece a proposta da Web Semântica,
concluindo-se que a Web Semântica, ainda se desenvolvendo de forma lenta, é o futuro ao
qual devemos chegar e, nesse sentido, o futuro das bibliotecas na Web Semântica apresenta-se
bastante incerto, porém, terão desafios enormes e complexos por superar. Foi utilizada a
análise documental como método de pesquisa.
Palavras-chave: Web Semântica. Bibliotecas. Tecnologias da Informação e da Comunicação.
Abstract: This paper presents an analysis on what are the initiatives taken by libraries to join
the proposal of semantic web. Besides it presents briefly how Information and
Communication Technologies have impacted the libraries, which are some of the main
challenges in the process of adaptation to the new context of the semantic web, doing an
analysis on how libraries could benefit the development of the Semantic Web and to achieve
this purpose, we analyzed the evolution of the web in the last decades, taking into account the
main characteristics, advantages and disadvantages that offers the proposal of the semantic
web.. Also we showed up some actions based on examples developed by libraries until now,
concluding that, although the semantic web will be developing slowly, the future of libraries
in the Semantic Web has become quite uncertain, however, will have enormous and complex
challenges to overcome. Documental analysis was used as a research method.
Keywords: Semantic Web. Libraries. Information and Communications Technologies.
1 INTRODUÇÃO
Nas últimas décadas do século XX, o desenvolvimento alcançado pela ciência no
campo da informação proveniente dos avanços nas áreas da informática, eletrônica,
telecomunicações, tecnologias de satélites dentre outros representou um enorme avanço para a
sociedade atual, a qual passou de uma sociedade puramente industrial a uma sociedade
baseada no frequente uso da informação e do conhecimento, e é por isso que na atualidade
fala-se de uma “Sociedade da Informação e do Conhecimento”. Essa transformação
converteu-se a uma realidade cada vez mais presente nos nossos dias com a aparição e a
aplicação de termos como a Web e suas derivações, como Web 2.0 (Web social), Web
3599
semântica entre outras e, hoje, tem levado a utilização das Tecnologias de Informação e
Comunicação (TIC), sendo a internet o exponente mais fiel, a planos socioculturais.
Durante muito tempo, a Web serviu como um sistema de publicação rápida, em que,
sem muitas complicações, podia-se disseminar qualquer tipo de informação, mesmo gráfica
ou textual. Isto foi facilitado pela popularização de editores orientados à criação e à edição de
textos em formato HTML, mas foram poucos os que se importaram com a necessidade de dar
um significado semântico aos dados inseridos na Web.
Desde o começo do século XXI, vem se desenvolvendo por iniciativa do World Wide
Web Consortium (W3C) um movimento que promoverá uma grande transformação no
contexto da WWW, chamada de “Web Semântica”. Consubstancia-se numa extensão da Web
atual, mas com uma construção que irá permitir uma melhor relação homem-máquina.
[...]com a popularização dos serviços e ferramentas da web 2.0. Se
estabelecem padrões intuitivos de enlaçado semântico seletivo por parte dos
usuários finais, que aproveitam as funcionalidades disponíveis a seu alcance.
Uma maior compreensão da arquitetura e funcionamento dos sistemas de
gestão de conteúdos e da importância de armazenar a informação de forma
estruturada em bases de dados traz uma sensibilidade notável para a
importância de desenvolver esforços que façam possível etiquetar, enlaçar e
reutilizar a informação automaticamente, em virtude de seu conteúdo
semântico. (TRAMULLAS, 2011, p). (tradução própria)
No contexto bibliotecário, a entrada das TIC tem provocado o surgimento de novas
formas de trabalho, novos serviços, como bibliotecas digitais, referência digital, consultas online com especialistas, digitalização dos catálogos, criação de repositórios de informação entre
outros, tendo como alvo um novo tipo de usuário, segundo Orera-Orera (2007, p.330) “… um
novo modelo de biblioteca para um novo modelo de sociedade”.
No entanto, algumas questões ainda persistem diante do acelerado desenvolvimento
tecnológico da sociedade como, por exemplo, em quais práticas as bibliotecas vêm acertando
para aproveitar as facilidades da Web semântica? Ou, com quais recursos elas contam? E
como as bibliotecas não querem ficar excluídas, terão que respondê-las.
A seguir, faz-se uma análise sobre como as bibliotecas poderiam beneficiar o
desenvolvimento da Web semântica, tendo como método de pesquisa a análise documental.
2 DA WEB A WEB SEMÂNTICA
Desde o surgimento da Word Wide Web (WWW) no final do século XX, sua evolução
se subdividiu em três etapas: na primeira, como Web 1.0, a participação do usuário em sua
construção era inexistente, pois todo o conteúdo era mantido por webmasters, tornando-a uma
ferramenta apenas de leitura, com consultas de informação unidirecionais. Já, na segunda,
3600
como Web 2.0, o usuário começa a ter maior participação na construção desta. As pessoas se
conectam, colaboram, interagem e compartilham informações por meio do uso das redes
sociais, blogs, wikis, cloud computing etc. E, por último, na terceira fase, que ainda está
acontecendo, temos a Web semântica, em que se apresentam aplicações Web se conectando
com outras aplicações Web, com o objetivo de enriquecer e ajudar na busca e na criação de
informação, melhorando a experiência do usuário final.
Segundo Tim Berners-Lee, James Hendler y Ora Lassila (2001), a Web Semântica é
uma extensão da Web atual, na qual a informação se posiciona com significado bem definido
e estruturado, que permite sua compreensão pelos computadores, facilitando uma relação de
cooperação entre humano e computador, em que a informação legível por máquina representa
o pensamento das pessoas e o sistema informático faz a análise dos padrões de interação.
A Web Semântica pretende transformar os sistemas informáticos em agentes
inteligentes, entidades que recolhem, filtram, processam, recuperam e fazem conclusões sobre
a informação contida na Web para tomar decisões sem precisar da participação do usuário no
processo. Tem como objetivo transformar a Web de hoje, de uma coleção de documentos, em
uma base de conhecimento.
Permite solucionar problemas na busca de informação através do uso de uma
infraestrutura que especifica o significado do conteúdo dos recursos, permitindo compartilhar,
processar e trocar informação de forma automática. Para cumprir com estas funções, a Web
semântica se sustenta em uma arquitetura organizada em camadas de tecnologias.
Este tipo de Web caracteriza um futuro não muito distante e que já está oferecendo
alguns benefícios em áreas que tem aplicado algumas de suas ferramentas. A materialização
deste fenômeno transformará significativamente a vida das pessoas. Todavia, a Web
Semântica apresenta algumas vantagens, mas também apresenta desvantagens no seu
desenvolvimento.
Algumas das vantagens que apresenta a Web Semântica são: fornece conteúdo
semântico aos documentos colocados na internet, permitindo uma melhor organização da
informação, o que garante uma busca por significado e não por conteúdo textual; os motores
de busca oferecem resultados mais relevantes para as pesquisas dos usuários; maior
simplicidade na hora de compartilhar, processar e transferir informação.
Entre as desvantagens da Web Semântica, podemos citar: custoso e complicado
processo de adaptação e reestruturação dos documentos já existentes na internet para
processá-los semanticamente; tecnicamente, existe um alto nível de complexidade na
3601
codificação semântica, sendo preciso unificar padrões semânticos, além de ter que lidar com
os problemas das diferenças de idiomas.
Apesar do certo equilíbrio que se apresentam entre vantagens e desvantagens da Web
Semântica, suas tecnologias decerto tornarão mais acessíveis e compreensíveis às informações
disponibilizadas nos ambientes informacionais digitais da Web.
3 AS BIBLIOTECAS E A WEB SEMÂNTICA
A Web Semântica propõe organizar e estruturar toda a informação disponível na Web,
de tal forma que seja inteligível tanto pelos seres humanos quanto pelas máquinas, agregando
metadados semânticos e fazendo uso de tecnologias que permitam o cruzamento dessas
informações independentemente do seu suporte.
Em paralelo, uma das fontes de informação estruturada mais importante do mundo
encontra-se nas bibliotecas e são as bases de dados que suportam os OPAC´s(catálogo
automatizado de acesso público on-line dos documentos de uma biblioteca, pelas siglas em
inglês). Nesse sentido, a Biblioteconomia tem se encarregado há muito tempo de criar
vocabulários, linguagens e formatos que permitam representar e organizar a informação
acumulada nos seus fundos, facilitando os processos de busca e recuperação da informação
nas unidades de informação:
Formato MARC (Machine Readable Cataloging: Catalogação legível por
computador)
Protocolo Z39.50; protocolo cliente servidor de padrão internacional para o
intercambio, transferência e recuperação de informação em computadores distribuídos
em redes.
Esquema Dublin Core, esquema de metadados que permite a descrição de objetos
digitais na web.
OAI-PMH (Open Archives Initiative Protocol for Metadata Harvesting: protocolo da
iniciativa de arquivos abertos para a recolecção de metadados) protocolo desenvolvido
pelo Open Archives Initiative que define um mecanismo para coleta de registros de
metadados em repositórios entre outros.
Embora estas ferramentas tenham sido importantes para o desenvolvimento e melhora
dos processos bibliotecários, elas foram projetadas para o uso exclusivo das comunidades
bibliotecárias, porém, não para a reutilização dos dados resultantes da sua utilização, o que
dificulta o processo de vinculação dos dados das bibliotecas com outros dados disponíveis na
internet. Na atualidade os dados bibliotecários encontram-se fechados em grandes depósitos,
com uma qualidade variável que não permite sua integração com outros conjuntos de dados,
nem a vinculação à Web Semântica.
3602
Um estudo do W3C Library Linked Data Incubator Group no ano 2011 publicou um
informe expondo quais são os principais obstáculos que enfrentam as bibliotecas para
aumentar a interoperabilidade global de seus dados na Web e se incluir no movimento da Web
Semântica: os dados bibliotecários não estão integrados com recursos Web; a comunidade
bibliotecária e a comunidade semântica usam diferentes terminologias para conceitos
similares de metadados; os padrões bibliotecários se desenham só para a comunidade
bibliotecária; as mudanças na tecnologia bibliotecária dependem do desenvolvimento dos
vendedores de sistemas.
Neste documento o grupo também expõe quais deveriam ser as ações das bibliotecas
para alcançarem a integração de seus conjuntos de dados na Web Semântica por meio do
Linked Data137 (dados ligados entre si): fazer uso dos dados bibliotecários disponíveis como
Linked Data; usar Linked Data externos para enriquecer os serviços bibliotecários; identificar
conjuntos de dados de valor, plausíveis de ser publicados dentro de projetos assumíveis e
adequadamente dimensionados (nem tudo tem valor); mudar o enfoque da criação e
desenvolvimento de padrões, levando em conta a participação de especialistas das
comunidades científicas da web semântica; analisar desde uma perspectiva técnica, a criação,
a gestão e a preservação de Identificadores de Recursos Uniforme (URIs, pela sigla em
inglês), bem como o desenvolvimento e gestão de vocabulários em RDF 138 (Resource
Description Framework).
Quando analisamos profundamente este documento, não encontramos nada novo e que
já não saibamos. O que preocupa é que as bibliotecas ainda não tenham assumido uma
posição mais inovadora. Não é possível que as bibliotecas continuem sem desenvolver
sistemas capazes de suprir as suas necessidades, ignorando as propostas e avanços
tecnológicos alcançados em outros contextos, adotando uma posição inerte e sem iniciativas e
esperando sempre adaptar modelos de externos a seu contexto.
Sendo assim, a adoção de um modelo que permita a interoperabilidade entre os dados
fornecidos pelas bibliotecas e os disponíveis na Web em forma de linked data transita por
transformar todo o legado da Biblioteconomia para uma nova linguagem de dados, mais
acessíveis e reutilizáveis, com um uso mais promissor, para além do contexto bibliotecário:
criar endereços Web usando URIs, o que ajudaria a eliminar redundâncias nos metadados,
137
138
Conjunto de praticas iniciadas por Berners-Lee com função de publicar dados estruturados na
Web.
Linguagem utilizado para representar informação na Internet.
3603
garantindo a padronização de termos utilizados por domínios de conhecimentos diferentes e
que se referem a mesma coisa; desenvolver padrões de dados para as bibliotecas que sejam
compatíveis e plausíveis de ser vinculados com dados de outros contextos onde já se esteja
utilizando as tecnologias da Web Semântica, levando em conta que estas representam uma
forma diferente de interpretar os dados e formatos de dados do século passado; o
conhecimento dos bibliotecários no gerenciamento de metadados os tornaria importantíssimos
parceiros nos grupos de desenvolvimento de padrões da Web Semântica; a grande experiência
no gerenciamento de arquivos de autoridade e listas controladas iria permitir que as
bibliotecas expandissem rapidamente sua presença na nuvem de dados ligados; a experiência
bibliotecária na preservação digital se converte em fator favorável para a necessária gestão de
vocabulários.
Na medida em que as bibliotecas compreendam a importância e a necessidade da
vinculação de seus dados com outros domínios no contexto da Web semântica e o
entendimento comum dessa necessidade se expanda, os benefícios da publicação de dados
ligados irão ficando mais claro, assim demostrado pelos resultados obtidos por aquelas
bibliotecas que aderiram e colocaram em prática as tecnologias da Web Semântica:
a) O projeto Europeana, que disponibilizou 3,5 milhões de registros de objetos
disponíveis como dados abertos ligados.
b) A Biblioteca do Congresso (LC) que ofereceu seu File Name Authority como dados
abertos ligados, reconhecendo a necessidade da adoção de um modelo mais robusto de
intercâmbio de dados baseado no uso do RDF.
c) Yahoo, Google e Bing lançam o schema.org que usa dados estruturados na otimização
de motores de busca;
d) A Biblioteca da Universidade de Cambridge publicou um dataset de 1,3 milhões de
registro, e fornece um kit de ferramentas para converter registros de MARC21 para
linked data.
e) O Virtual International Authority File (VIAF), que acolhe os registros de autoridade
de mais de uma dúzia de agências nacionais e regionais e tem ligado e disponibilizado
muitos de seus registros para DBpedia.
Todas estas instituições obtiveram grandes vantagens na disponibilização de seus
dados, mas, se a aplicação destas tecnologias guiou essas bibliotecas a um melhor
aproveitamento dos dados por elas armazenados, existe ainda um problema a ser enfrentado, e
diz respeito à disponibilização dos dados abertos interligados na internet, conhecido como
“Linked Open Data”, pois, presume-se, que se os dados estão disponíveis na internet e podem
3604
ser descarregados, eles são dados abertos e livres. Mas esta afirmação não é verdadeira, pois,
para que um dado seja aberto, além de ser preciso que ele esteja disponível na internet e possa
ser descarregado, ainda é necessário:
[...] possuir algum tipo de licença legal para poder utilizar, reutilizar y
redistribuir, mesclando-os incluso com outros dados, sujeitos como mínimo
á “atribuição” (reconhecimento de autoria, quem o tem feito), ao
“compartilhar igual” (que a exploração que se faça destes dados –incluindo
as obras derivadas- mantenham a mesma licença ao serem divulgadas).
(HERNÁNDEZ-PÉREZ; GARCÍA-MORENO, 2013, p.2). (tradução
própria)
Quando nos referimos a dados interligados, estamos nos referindo à possibilidade de
acessar e navegar por diferentes fontes de dados seguindo os links RDF. Sejam os dados
científicos, geográficos, históricos, governamentais ou de administrações públicas, o mais
importante é que possam ser considerados como abertos e estejam interconectados. Neste
sentido, Tim Berners-lee (2009) ofereceu um esquema, em que ele atribui uma qualificação
para os diferentes níveis de disponibilização de dados abertos: Uma estrela, por disponibilizar
dados na Web em qualquer formato, com uma licença aberta; Duas estrelas, quando esses
dados são disponibilizados em um formato estruturado; Três estrelas, quando é utilizado um
formato não proprietário na disponibilização dos dados; Quatro estrelas, quando os dados
utilizam URIs; Cinco estrelas, quando eles estão entrelaçados a outros dados, oferecendo um
contexto.
Um dos principais benefícios para o mundo bibliotecário, apontados pelo W3C
Library Linked Data Incubator Group (W3C, 2011), referente ao uso de Linked Open Data, é
a criação de “uma grande piscina global de dados abertos, compartilhados que podem ser
usados e reusados para descrever os recursos, com uma quantidade limitada de esforço
redundante em comparação com os processos de catalogação atuais”.
É certo que existem notáveis projetos e serviços bibliotecários transitando pelas
tecnologias da Web Semântica, mas os passos dados até agora se mostraram insuficientes.
Sendo assim, as bibliotecas precisam de uma mudança radical no seu funcionamento para
alcançar o êxito, o que representaria quase abandonar os sistemas de compartilhamento e
criação de dados fortemente arraigados em seus sistemas e recomeçar com novas regras e
procedimentos, fato que representaria uma enorme perturbação para uma profissão que é
muito lenta para evoluir.
Em um contexto digital que avança cada vez mais rápido no desenvolvimento e
aproveitamento das tecnologias da Web Semântica, as bibliotecas devem considerar alguns
elementos expostos por López e Zorita (2008) e que são considerados essenciais para uma
3605
mudança em nossas bibliotecas: considerar a biblioteca como uma espécie de “contêiner”
capaz de estruturar seus dados e oferecer relações semânticas do tipo “este objeto é parte de”
ou “este objeto é membro de”; aumentar a interoperabilidade dos sistemas bibliotecários,
permitindo o intercâmbio de informação com outros sistemas e a possibilidade de nossos
objetos serem utilizados e reutilizados em outras aplicações de forma transparente; fazer dos
sistemas bibliotecários sistemas mais flexíveis, podendo incorporar outros esquemas de
metadados e taxonomias, mais cômodas para as necessidades dos pesquisadores e seus
materiais altamente especializados; construção de sistemas com arquiteturas mais abertas,
criando aplicações modulares, possibilitando maior flexibilidade no momento de criar
serviços mais complexos; a criação de repositórios de dados, além dos repositórios
institucionais já existentes nas bibliotecas, capaz de integrar-se entre eles e com os outros
sistemas das instituições onde estão instalados.
5 CONSIDERAÇÕES FINAIS
Para as bibliotecas alcançarem os propósitos da Web Semântica, faz-se necessário uma
padronização de suas tecnologias, linguagens e metadados descritivos, de forma que
respondam a determinados princípios comuns, como armazenar e descrever dados de maneira
que sejam utilizados de forma natural por pessoas e máquinas.
O futuro das bibliotecas na realidade da Web Semântica apresenta-se bastante incerto,
com desafios enormes e complexos por superar, mas também com oportunidades para
aproveitar.
Continuaríamos nos enganando se perdurasse a inércia imperante em nossas práticas e
história, desperdiçando as oportunidades que o novo contexto tecnológico coloca em nossas
mãos, correndo o risco ainda de sermos considerados ultrapassados e com pouca relevância
no contexto tecnológico informacional.
REFERÊNCIAS
BERNERS-LEE, T.; HENDLER, J.; LASSILA, O. The Semantic Web: A new form of Web
content that is meaningful to computers will unleash a revolution of new possibilities.
Scientific American Special, número especial, 2001. Disponível em:
<http://www.cs.umd.edu/~golbeck/LBSC690/SemanticWeb.html>. Acesso em: 25 jun. 2014
BERNERS-LEE, Tim. Linked data - Design issues. 2009, Disponível em:
<http://www.w3.org/DesignIssues/LinkedData.html>, Acesso em: Acesso em: 15 jul. 2014.
HERNÁNDEZ-PÉREZ, T.; GARCÍA-MORENO, M. A. Datos abiertos y repositorios de
datos: nuevo reto para los bibliotecarios. El profesional de la información, mayo-junio, v. 22,
n. 3, p. 259-263, 2013.
3606
LÓPEZ, A.; ZORITA, L. Les biblioteques universitàries i la gestió de la informació en
l'entorn digital: diverses consideracions per a dipòsits digitals. BiD: textos universitaris de
biblioteconomia i documentació, v.20, n. junho, 2008. Disponível em:
<http://bid.ub.edu/20lopez1.htm> Acesso em: 4 jul. 2014.
ORERA-ORERA, L. La biblioteca universitaria ante el nuevo modelo social y educativo. El
profesional de la información, v.16, n.4, p. 329-337, 2007.
TRAMULLAS, Jesús. Web semántico en bibliotecas: del material del que están hechos los
sueños. 2011. Disponível em: < http://www.ub.edu/blokdebid/es/content/websem%C3%A1ntico-en-bibliotecas-del-material-del-que-est%C3%A1n-hechos-lossue%C3%B1os>. Acesso em: 15 jun. 2014
W3C Library Linked Data Incubator Group. Draft report with transclusion. 2011. Disponível
em: <http://www.w3.org/2005/Incubator/lld/wiki/DraftReportWithTransclusion>. Acesso em:
15 jun. 2014.
3607
ANÁLISE DA ARQUITETURA DA INFORMAÇÃO DO WEBSITE DO SIBI UNIRIO
ANALYSIS OF THE ARCHITECTURE OF INFORMATION THE WEBSITE OF SIBI UNIRIO
Alanda do Valle Vitorino
Claudio Jose Silva Ribeiro
Resumo: Com o aumento da utilização da web, os websites, se tornaram grandes ferramentas
de relacionamento das bibliotecas com seus usuários. A Arquitetura da Informação surge
neste cenário com uma alternativa metodológica para organizar a informação em ambiente
web. Dentro deste contexto, conforme os preceitos dos autores Rosenfeld e Morville (2006)
que apresentam uma metodologia para projetos de Arquitetura da Informação além de quatro
sistemas para Arquitetura da Informação, sistema de organização, sistema de rotulagem,
sistema de navegação e sistema de busca, propõe-se nessa pesquisa analisar o website do
Sistema de Bibliotecas da Universidade Federal do Estado do Rio de Janeiro-UNIRIO sob
duas perspectivas, do processo de concepção e do produto final (o website). Aplica a técnica
de entrevistas com roteiro para identificação do processo de elaboração do website e adota os
quatro sistemas da Arquitetura da Informação para observar o produto final. Pretende
identificar aspectos positivos e negativos do website e apresentar uma proposta utilizando a
Arquitetura da Informação para aprimoramento do website.
Palavras-chave: Websites de bibliotecas. Arquitetura da Informação. Sistema de Bibliotecas
da Universidade Federal do Estado do Rio de Janeiro.
Abstract: With the increased use of the web, websites, became great tools of libraries
relationship with their users. The Information Architecture arises in this scenario with an
alternative methodology to organize the information in a web environment. Within this
context, according to the precepts of the authors Rosenfeld and Morville (2006) who present a
methodology for design of information architecture and four systems for information
architecture, system organization, labeling system, navigation and search system, is proposed
in this research to analyze the website of the Library System of the Federal University of the
State of Rio de Janeiro-UNIRIO two perspectives, the design process and the final product
(the website). Apply the technique of interviewing roadmap for identifying the process of
developing the website and takes the four systems of the Information Architecture to watch
the final product. Aims to identify positive and negative aspects of the website and submit a
proposal using the information architecture to improve the website.
Keywords: Websites libraries. Information Architecture. Library System of the Federal
University of the State of Rio de Janeiro.
1 INTRODUÇÃO
A popularização da Internet na década de 1990 e a evolução das Tecnologias da
Informação e Comunicação (TICs) desencadearam mudanças na maneira como a sociedade
vem produzindo e buscando informação. A enorme quantidade de conteúdos e formatos
disponibilizados na web transformou o ambiente informacional.
A tarefa de buscar e localizar informações tornou-se cada vez mais complicada.
Rosenfeld e Morville (2006) citam que a incapacidade de encontrar uma informação é um dos
fatores que mais frustram os usuários.
3608
Nesse contexto, Wurman (2001 apud SILVA; DIAS, 2008, p.4) afirma que
Arquitetura da Informação “organiza a informação para torná-la clara, [...] permitindo a
criação no ambiente web, de um espaço informacional por onde o usuário é capaz de
navegar/mover-se de forma mais eficiente às suas necessidades de informação”.
Analisando a literatura dos últimos seis anos sobre avaliação de Arquitetura da
Informação de websites nas áreas de Biblioteconomia e Ciência da Informação fica evidente
na literatura a unanimidade na preferência pelos estudos de Rosenfeld e Morville (2006) como
metodologia aplicada aos estudos, podemos citar (AQUINO e OLIVEIRA, 2012; SILVA et
al., 2012; CICON, 2013; DANTAS e SILVA, 2013; MIRANDA, et al., 2013; SANTOS e
CAMPOS, 2013), razão pela qual esse estudo também optou em utiliza-los em sua análise.
Os
websites
são
grandes
ferramentas
para
as
bibliotecas
universitárias
disponibilizarem e disseminarem informações. Brinkley (1999, apud AMARAL, 2005, p. 19)
assegura que o “website é o melhor meio para promover e publicar os serviços oferecidos
pelas bibliotecas”.
Sendo assim, conforme os preceitos dos autores Rosenfeld e Morville (2006) que
apresentam uma metodologia para projetos de Arquitetura da Informação além de quatro
sistemas para (AI), sistema de organização, sistema de rotulagem, sistema de navegação e
sistema de busca, propõe-se nessa pesquisa analisar o website do Sistema de Bibliotecas da
Universidade Federal do Estado do Rio de Janeiro-UNIRIO sob duas perspectivas, do
processo de concepção e do produto final (o website).
Considerando que falhas na organização de um website provocam em seus usuários
confusão e decepção dificultando o uso do mesmo e repercutindo negativamente na imagem
da instituição, este estudo faz-se necessário pois visa contribuir para a melhoria da qualidade
do website do Sistema de Bibliotecas da UNIRIO, a fim de que os usuários possam atingir
seus objetivos e satisfazer suas necessidades informacionais.
2 ARQUITETURA DA INFORMAÇÃO
Em 1976, Richard Wurman, desenhista e Arquiteto por formação, cunhou o termo
Arquitetura da Informação (AI), segundo o qual definiu a AI como “sendo a ciência e a arte
de criar instruções para espaços organizados. Aplicando esse conceito na organização de
informações em suportes físicos, como guias e mapas. (SILVA et al., 2011).
Na década de 1994, Luís Rosenfeld e Joseph Janes, ambos com formação em Ciência
da Informação e Biblioteconomia, fundaram a Argus Associates, empresa dedicada a trabalhar
com Arquitetura da Informação na web. Nesse mesmo ano Rosenfeld publicou uma coluna
3609
intitulada “Arquiteto da web” na revista Web Review, unindo-se subsequente com Peter
Morville, também bibliotecário, sendo contratado como primeiro empregado da Argus
Associates (CAMARGO; VIDOTTI, 2011).
Juntos Rosenfeld e Morville foram chamados em 1998 pela O’Reilly Publishing para
escrever um livro, intitulado “Information Architecture for Word Wide Web” com última
edição em 2006.
Rosenfeld e Morville (2006) apresentam quatro definições para arquitetura da
informação:
O design estrutural de ambientes de informação compartilhados.
A combinação de sistemas de organização, rotulagem, navegação e busca em websites
e intranets.
A arte e a ciência de dar forma a produtos de informação e experiências para apoiar a
usabilidade e a findability.
Uma disciplina emergente e comunidade de prática focada em trazer princípios do
design e da arquitetura para a paisagem digital.
Os autores acima citados defendem que a Arquitetura da Informação consiste em
compreender três pilares: contexto, conteúdo e usuário. Esta tríade é única para cada website e
cabe ao arquiteto da informação balanceá-las.
Contexto – Objetivos do website, cultura e política da empresa, ambiente de uso,
restrições tecnológicas, recursos humanos, etc.
Conteúdo – Volume, formato, estrutura, propriedade, dinamismo, metadados etc.
Usuário – Necessidades, comportamento de busca da informação, experiências,
tarefas, etc.
2.1 Processo e Metodologia de Arquitetura da Informação
O projeto de Arquitetura de Informação de um website envolve dificuldades no design
dos quatro sistemas da Arquitetura da Informação. Vencer essas dificuldades torna o projeto
de AI um problema complexo, sendo necessário uma metodologia para organizar o trabalho
do arquiteto e garantir a qualidade do produto final (REIS, 2007).
Para Rosenfeld e Morville (2006) a criação de websites requer uma abordagem por
fases. Então os autores criaram uma metodologia que compreende cinco fases: pesquisa,
estratégia, design, implementação e administração. No entanto em seu livro Information
Architecture for the word wide web eles focam nas três primeiras fases, pesquisa, estratégia e
3610
design, por considerarem as fases de implementação e administração a execução das etapas
anteriores.
A fase da pesquisa começa com a revisão dos materiais de apoio existentes, reuniões
com a equipe de estratégia visando a obtenção de entendimento sobre as metas, contexto,
Arquitetura da Informação existente, o conteúdo e o usuário. A pesquisa fornece uma
compreensão contextual que constitui a base para o desenvolvimento de uma estratégia de
arquitetura da informação.
De uma perspectiva top-down, a estratégia define dois ou três níveis de estruturas de
organização e navegação do website. Da perspectiva botton-up sugere tipos de documentos e
um esquema de metadados. A estratégia oferece um framework de primeiro nível para a AI
estabelecendo a direção e o alcance que vai orientar o projeto de Arquitetura da Informação
até a implementação.
Na fase do design é aonde dá-se forma a estratégia de uma Arquitetura da Informação,
é a criação de blueprints detalhados, wireframes e esquemas de metadados.
A implementação ocorre quando o projeto é colocado a prova, o website é construído,
testado e lançado.
Na administração ocorre a avaliação e melhoria continua da Arquitetura da
Informação. Tarefas diárias como inclusão e exclusão de novos documentos, monitoramento
do uso e feedback ao usuário.
2.2 Sistemas da Arquitetura da Informação
Rosenfeld e Morville (2006) ainda dividem a Arquitetura da Informação em quatro
sistemas.
Sistema de Organização (Organization System): Define a classificação de todo o
conteúdo.
Sistema de Rotulação (Labeling System): Estabelece as formas de representação, de
apresentação, da informação definindo rótulos para cada elemento informativo.
Sistema de Navegação (Navegation System): Especifica as maneiras de navegar, de
se mover pelo espaço informacional e hipertextual.
Sistema de Busca (Search System): Determina as perguntas que o usuário pode fazer
e o conjunto de respostas que irá obter.
Albuquerque e Lima-Marques (2011, p. 64) analisam que “a proposição de quatro
sistemas interdependentes para a arquitetura da informação de website (Organização,
3611
navegação, rotulação e busca), feita por estes autores, torna-se, até um certo ponto, um
desdobramento dos primeiros princípios (contexto, conteúdo e usuários)”. Reis salienta que
A divisão da arquitetura de informação nesses quatro sistemas é apenas
conceitual e destina-se a organizar o trabalho do arquiteto de informação.
Todos esses sistemas apresentam uma grande interdependência de modo que
os problemas de um deles normalmente afetam os demais. Apesar disso,
analisá-los separadamente facilita a busca das dificuldades de projetá-los
porque cada um deles é conceituado com bases teóricas advindas de
disciplinas diferentes (REIS, 2007, p.72).
3 METODOLOGIA
Tendo em vista os objetivos propostos, a investigação se caracteriza como uma
pesquisa descritiva de abordagem qualitativa.
Quanto ao procedimento, é possível classificar essa pesquisa em bibliográfica,
documental e estudo de campo. A pesquisa bibliográfica para a fundamentação teórica, a
documental para a coleta e análise dos dados e pesquisa de campo para conhecer a
metodologia de desenvolvimento do projeto de Arquitetura da Informação.
Neste estudo, a pesquisa bibliográfica constituiu-se na análise de textos impressos e
eletrônicos obtidos em bibliotecas, Portal da CAPES, na base BRAPCI, repositórios digitais
das universidades e anais de eventos da área de Biblioteconomia e Ciência da Informação. As
palavras chaves utilizadas foram: Arquitetura da Informação; website de biblioteca; biblioteca
universitária.
Para o estudo de campo será utilizada a técnica de entrevista da pesquisa qualitativa de
entrevistas em profundidade seguindo um roteiro, elaborado a luz da revisão de literatura,
com o objetivo de identificar a metodologia adotada no processo de desenvolvimento do
website.
Para a pesquisa documental, será utilizada a homepage do website do Sistema de
Bibliotecas da UNIRIO (http://www.biblioteca.unirio.br), onde será verificado a Arquitetura
da Informação com base nos sistemas de Rosenfeld e Morville (2006).
4 CONCLUSÕES PARCIAIS
As bibliotecas são fontes de informação confiáveis para a sociedade, devem ser
capazes de utilizar a web como forma de disseminar informações e oferecer serviços de modo
a não ficarem excluídas desse novo cenário, o website deve representar a biblioteca na
internet e se tornar referencial de pesquisa para seus usuários.
Diante da possibilidade que a web oferece de armazenar grandes quantidades de
informação de diferentes fontes em diversos formatos e suportes suscita-se a seguinte questão
3612
“como as bibliotecas podem vencer o desafio de apresentar esse vasto conteúdo em seus
websites de forma que seus usuários não se sintam perdidos e confusos?”. Nesse sentido, os
preceitos da Arquitetura da Informação podem auxiliar as bibliotecas na estruturação e
organização da informação de seus websites. Seguir uma metodologia de AI no processo de
desenvolvimento do website e aplicar esses preceitos no produto final é fundamental para as
bibliotecas vencerem esse desafio. A organização de ambientes de informação é mais
eficiente quando se segue um método.
REFERÊNCIAS
ALBUQUERQUE, A. R. R.; LIMA-MARQUES, M. Sobre os fundamentos da Arquitetura da
Informação. Perspectivas em Gestão & Conhecimento, João Pessoa, v. 1, Número Especial,
p. 60-72, out. 2011.
AMARAL, S. A. Websites: uso de tecnologias no cumprimento das funções da biblioteca.
Informação & Sociedade: Estudos, João Pessoa, v. 1, n. 1, p. 15-40, jul./dez. 2005.
AQUINO, M. A.; OLIVEIRA, H. P. C. Contribuições da arquitetura da informação para o
website "A Cor da Cultura". Informação & Sociedade: Estudos, João Pessoa, v. 22, n. 1, p.
129-143, jan./abr. 2012. Disponível em: <http://www.ies.ufpb.br/ojs2/index.php/ies/article
/view/12158>. Acesso em: 26 nov. 2013.
BRINKLEY, M. The library web site in 1999: a virtual trip to the library. In: INTERNET &
LIBTECH INTERNATIONAL, 99., 1999. Anais... London, 1999: Information Today, 1999.
Disponível em:<http://www.esatclear.ie/~mbrinkley/ili99.html>. Acesso em:16 set. 2014.
CAMARGO, L. S. A.; VIDOTTI, S. A. B. G. Arquitetura da Informação: uma abordagem
prática para o tratamento de conteúdo de Interface em ambientes informacionais digitais. Rio
de Janeiro: LTC, 2011.
CICON, C. R. A organização da informação em ambiente Web: um estudo do portal do
Procon-PR. 2012. 150f. Dissertação (Mestrado Profissional em Gestão da Informação) –
Centro de Educação, Comunicação e Artes, Universidade Estadual de Londrina. Disponível
em:<http://www.bibliotecadigital.uel.br/document/?code=vtls000 181054>. Acesso em: 26
nov. 2013.
DANTAS, C. M.; SILVA, H. O. Arquitetura da Informação, acessibilidade e usabilidade:
princípios básicos para a análise do website da Fundação Centro Integrado de Apoio à Pessoa
Portadora de Deficiência(FUNAD). In: ENCONTRO NACIONAL DE PESQUISA EM
CIÊNCIA DA INFORMAÇÃO, 14., 2013, Florianópolis. Anais... Florianópolis: ENANCIB,
2013. Disponível em: <http://enancib.sites.ufsc.br/index.php/enancib2013/XIVenancib/paper
/view/334>. Acesso em: 26 nov. 2013.
MIRANDA, Z. D. et al. Análise do ambiente do SIS Médicos e a Cultura a partir da
Arquitetura da Informação: enfocando o sistema de organização. Tendências da Pesquisa
Brasileira em Ciência da Informação, João Pessoa, v. 5, n. 1, 2013. Disponível em: <http://
www.brapci. ufpr.br/documento.php?dd0=0000013075&dd1=395f7>. Acesso em: 26 nov.
2013.
3613
REIS, G. Centrando a arquitetura da informação no usuário. Dissertação (Mestrado em
Ciência da Informação) –Escola de Comunicação e Artes, Universidade de São Paulo, São
Paulo, 2007. Disponível em: <http://www.teses.usp.br/teses/disponiveis/ 27/27151/tde23042007-141926/pt-br.php>. Acesso em: 30 mar. 2014.
ROSENFELD, L.; MORVILLE, P. Information Architecture for the Word Wide Web. 3.
ed. Sebastopol, CA: O'Reilly, 2006.
SANTOS, S. de O.; CAMPOS, M. L. A. Análise do Portal IBGE a luz da arquitetura da
informação de da classificação facetada. In: ENCONTRO NACIONAL DE PESQUISA EM
CIÊNCIA DA INFORMAÇÃO, 14., 2013, Florianópolis. Anais... Florianópolis: ENANCIB,
2013. Disponível em: <http://enancib.sites.ufsc.br/index.php/enancib2013/XIVenancib/paper
/view/244>. Acesso em: 26 nov. 2013.
SILVA, M. A.T. et al. O que é arquitetura da informação? Biblionline, João Pessoa, v. 7, n. 1,
p. 47-57, 2011.
SILVA, M. A. T. et al. Arquitetura da informação aplicada a leitores de E-book: avaliando o
sistema de organização da interface do Kindle III wifi. In: ENCONTRO NACIONAL DE
PESQUISA EM CIÊNCIA DA INFORMAÇÃO, 13., 2012, Rio de Janeiro. Anais.... Rio de
Janeiro: ENANCIB, 2012. Disponível em: <http://www.eventosecongressos.com.br/metodo
/enancib2012/ arearestrita/pdfs/19214.pdf >. Acesso em: 26 nov. 2013.
SILVA, P. M.; DIAS, G. A. A arquitetura da informação centrada no usuário: estudo do website da biblioteca
virtual em saúde (BVS). Revista Eletrônica de Biblioteconomia e Ciência da Informação,
Florianópolis, n. 26, 2ºsem.2008.Disponível em: <http://www.periodicos.ufsc.br/index.php/
eb/article/viewFile/7200/6647>. Acesso em: 23 dez. 2013.
WURMAN, R. S. Ansiedade de Informação: como transformar informação em
compreensão. São Paulo: Cultura, 2001.
3614
AVALIANDO A EDITORAÇÃO DE E-BOOKS EM AMBIENTES DE EDITORAS
UNIVERSITÁRIAS: UMA APLICAÇÃO DO OPEN MONOGRAPH PRESS
EVALUATING THE E-BOOKS PUBLISHING IN UNIVERSITY PRESSES ENVIRONMENTS:
AN APPLICATION OF THE OPEN MONOGRAPH PRESS
Adriana Carla Silva de Oliveira
Guilherme Ataíde Dias
Resumo: O livro acompanhou o desenvolvimento da tecnologia se adaptando à mesma, assim
como às necessidades de alguns leitores. Isso contribuiu para a emergência do e-book,
expandindo as funcionalidades do livro impresso, sendo, uma tecnologia em franca evolução
no cenário corporativo, e acadêmico, onde editoras de universidades federais brasileiras já os
editoram e os disponibilizam. Esta é uma pesquisa bibliográfica e exploratória, que objetiva
identificar, por meio de questionário, os formatos de e-books utilizados, bem como, a
estrutura de editoração de e-books na ambiência de editoras universitárias brasileiras. Os
resultados da pesquisa servirão de subsídio para a implantação da prática de editoração de ebooks na Editora da Universidade Federal da Paraíba, por meio da utilização de um software
denominado Open Monograph Press. Identificou-se, que os formatos de e-books mais
utilizados pelas editoras pesquisadas foram o Portable Document Format (PDF) e o
Electronic Publication (EPUB), e que a editoração de e-books no cenário acadêmico, está em
franca evolução. Foi identificado que 44,44% das editoras universitárias brasileiras, editoram
e-books.
Palavras-chave: E-books. Editoras universitárias. Open Monograph Press.
Abstract: The book followed the development of technology adapting to it, as well to the
needs of some readers. This contributed to the emergence of e-book, expanding the printed
books features. The e-books technology is developing in the corporate and academic
environments. Brazilian federal universities presses already edit them and make them
available. This is a literature and exploratory research that aims to identify through a
questionnaire, the formats of e-books used, as well as the structure of publishing e-books on
the ambience of Brazilian university presses. The survey results will help the implementation
of the e-books publishing practices at Universidade Federal da Paraíba press, by using a
software product known as Open Monograph Press. It was identified that the formats of ebooks used by most publishers surveyed were the Portable Document Format (PDF) and the
Electronic Publication (EPUB). The publishing of e-books in academic environments is in
steady evolution. It was identified that 44.44% of the Brazilian university presses publish ebooks.
Keywords: E-books. Scholarly presses. Open Monograph Press.
1 INTRODUÇÃO
O livro, desde a sua gênese, acompanha o desenvolvimento das tecnologias, e vem
passando por inúmeras modificações, no que diz respeito aos seus suportes informacionais,
produto de influências culturais, econômicas e sociais.
Como seu primeiro suporte informacional, o livro teve a pedra e/ou a argila,
materializando-se em objeto de grande volume e, portanto, de difícil manuseio, deslocamento,
e armazenamento. Posteriormente, um novo material começa a ser usado, o papiro. Contrário
3615
à pedra, possuía fácil manuseio, deslocamento e armazenamento, originando os
cofres/depósitos de livros, denominados bibliothéke. Do papiro, o livro evoluiu para o
pergaminho, que além daquelas características, conservavam por mais tempo as informações
contidas neles. Em seguida, vem o modelo códex, que eram pergaminhos costurados, onde o
livro já se figurava no formato de livro impresso, como é conhecido atualmente. Por volta do
século XII, o pergaminho passa a ser substituído pelo papel branco, que passa a compor o
livro. Mais tarde, em 1455, Johannes Gutenberg inventa os tipos móveis, propiciando a sua
popularização e acesso para a sociedade.
O livro acompanhou o desenvolvimento da tecnologia se adaptando à mesma, como
também se adapta às necessidades de alguns leitores. “Assim como a sociedade evolui, não é
diferente com os suportes informacionais. Eles evoluíram junto com a sociedade de modo a se
adequar às necessidades do espaço e do tempo”. (ARAÚJO et al, 2013, p. 14).
Surgiram os e-books, que se apresentam como inovações do tradicional livro impresso,
possibilitando acesso rápido e fácil a uma quantidade infinita de obras, virtualmente.
Possibilita expandir as funcionalidades do livro impresso, do livro tradicional. Assim,
podemos compreender um e-book como um dispositivo de Tecnologia da Informação que
disponibiliza conteúdos informacionais, de forma a mimetizar o livro tradicional (DIAS,
2010). É uma tecnologia emergente com abrangência nacional e internacional, que está tendo
bastante destaque, tanto no cenário comercial, como no cenário acadêmico.
Como evidência, em âmbito comercial, temos empresas multinacionais, como a
Amazon.com e a Apple que, além de comercializarem diversas obras nesta modalidade de
livro, também desenvolveram e comercializam dispositivos eletrônicos de leitura para os
mesmos, os e-readers, como é o caso do Kindle e do iPad, respectivamente. No Brasil, as
vendas de e-books estão em crescimento, algumas empresas como a Livraria Cultura já
comercializam obras e, também, o dispositivo eletrônico para leitura de e-books, chamado
neste caso particular de Kobo.
Em âmbito acadêmico, os e-books se tornaram realidade. As universidades federais, a
partir das suas respectivas bibliotecas disponibilizam para a comunidade, conteúdos
editorados por editoras comerciais. De forma equivalente, algumas universidades, através de
suas editoras já os editoram e os disponibilizam em variados formatos para a comunidade.
A pesquisa objetiva avaliar, por meio de pesquisa bibliográfica e exploratória, a
editoração de e-books em ambientes de editoras universitárias brasileiras, bem como os
padrões de e-books utilizados por elas, objetivando a implantação de um software de código
aberto, livre, o Open Monograph Press (OMP), que automatiza o fluxo editorial para a
3616
editoração de e-books e, posteriormente, seu acesso e/ou venda, na ambiência da Editora da
Universidade Federal da Paraíba (EDUFPB).
A partir destas explanações iniciais, indagamos: como se configura a editoração de
e-books em Editoras Universitárias Brasileiras no que tange aos formatos para a sua
disseminação e aos sistemas utilizados para a automação do processo editorial?
2 OPEN MONOGRAPH PRESS
O OMP é um software de código aberto da plataforma Public Knowledge Project
(PKP), projetado para auxiliar as editoras universitárias e congêneres interessadas em publicar
e-books em diferentes formatos eletrônicos, seja em acesso aberto ou através de compra (PKP,
2010). Sua introdução na ambiência de editoras busca simplificar o processo de editoração e
publicação de e-books.
O OMP visa gerenciar e agilizar o fluxo editorial da publicação eletrônica de e-books,
automatizando todas as etapas editoriais de publicação, além de disponibilizar ferramentas
para criação de catálogos online de acesso aberto, o gerenciamento de depósito, a avaliação e
disponibilização das publicações. Os critérios e políticas de publicação e disponibilização do
material são de responsabilidade da editora, muito embora o OMP possua um fluxo editorial
próprio, conforme descrito no item a seguir.
2.1 Processo de editoração do OMP
O processo de editoração no OMP divide-se em diversas etapas. Inicia-se pelo
processo de submissão realizado pelo autor, onde o mesmo irá preencher, no ato da
submissão, as informações do material. O próprio autor realiza a catalogação do seu material.
Em seguida, o material submetido é enviado eletronicamente ao editor, que avalia se
as políticas e critérios estabelecidos pela editora foram atendidos. Em caso positivo, o
material é encaminhado aos pareceristas (revisores interno e externo), que avaliam o mesmo e
atribuem o parecer final: aprovado ou recusado. Em caso negativo, o editor pode entrar em
contato com o autor, solicitando que o mesmo faça as alterações adequadas, da mesma forma
que os pareceristas podem solicitar alterações no material enquanto o avaliam.
Em sendo aprovado, o material é encaminhado para a fase de edição, produção e
elaboração final da obra, sob as funções dos Produtores e Designers. O fluxo editorial finaliza
quando o material, o e-book, é publicado e inserido no catálogo da editora, obedecendo aos
critérios de disponibilização, sob a função, novamente, do Editor. A Figura 1 ilustra o
processo de editoração do OMP.
3617
FIGURA 1 – Processo Editorial do OMP
Fonte: Dados da pesquisa (2014).
É interessante ressaltar que, durante todo este processo de submissão até a publicação
final, o autor acompanha online todo o fluxo editorial do seu material.
A utilização do OMP contribui para aumentar a eficácia e eficiência em todo o
gerenciamento do fluxo editorial de e-books em editoras universitárias. A sua aplicação em
editoras universitárias está em crescimento no âmbito nacional.
No cenário da EDUFPB, a adoção desse software almeja um gerenciamento eficiente
do processo editorial dos e-books com disponibilidade de acesso aberto para toda a
comunidade acadêmica.
3 METODOLOGIA
Trata-se de uma pesquisa bibliográfica e exploratória, de natureza quanti-qualitativa.
Pesquisa bibliográfica, a partir de um levantamento sobre os padrões de e-books
utilizados em editoras de universidades federais brasileiras, bem como, um levantamento
sobre a adoção do OMP, e a sua utilização, que ainda é pequena nacionalmente.
A pesquisa de caráter exploratório visa coletar informações sobre a temática estudada,
com vistas à ampliação do entendimento acerca do fenômeno, já que as informações acerca
desse assunto ainda são poucas. Indicada em situações nas quais as informações sobre o
problema em estudo são insignificantes ou insuficientes, a pesquisa exploratória tem por
finalidade ampliar o conhecimento sobre o tema pesquisado, esclarecendo conceitos e
fornecendo subsídios para as etapas subsequentes da investigação (VERGARA, 2006).
A pesquisa assume um caráter quantitativo e qualitativo no que diz respeito às
informações coletadas através da aplicação do questionário que foi realizado pelo autor.
Assume um caráter quantitativo, acerca da representação em forma numérica dos dados
obtidos através da pesquisa, e qualitativo para interpretação e análise dos dados coletados.
3.1 Procedimento metodológicos
O universo da pesquisa teve como escopo as editoras das universidades federais
brasileiras. Inicialmente foi realizado um levantamento, visando elaborar uma lista de todas as
universidades federais existentes no Brasil, com a finalidade de saber quais dessas possuem
3618
editoras universitárias. Esse universo totalizou em 63 (sessenta e três) universidades federais
brasileiras.
Para identificar quais universidades tinham editoras universitárias, visitamos os sites
oficiais das universidades, à procura de suas editoras, e seus e-mails para contato, para
posteriormente realizarmos contato e enviarmos o questionário. Algumas universidades
informam a existência de editora universitária no próprio site; outras não, sendo necessário
realizar o contato com as mesmas, via e-mail, para colher esta informação. Em alguns casos,
não foi possível obter retorno.
A pesquisa teve como objetivo geral avaliar os principais formatos de e-books
utilizados em editoras universitárias, como parte do processo de implantação do OMP na
EDUFPB.
A pesquisa dividiu-se em cinco partes: 1) Levantamento bibliográfico das Editoras de
Universidades Federais Brasileiras; 2) Levantamento bibliográfico sobre o Open Monograph
Press; 3) Aplicação do questionário; 4) Análise e interpretação dos dados coletados; 5)
Apresentação dos resultados.
Para coleta das informações necessárias para o andamento da pesquisa foi utilizado,
como instrumento para coleta de dados, um questionário intitulado “Pesquisa sobre formatos
utilizados para a disponibilização de e-books nas Editoras Universitárias de
Universidades Federais”, enviado, via e-mail, para todas as editoras universitárias.
O questionário foi composto por 09 (nove) questões, estruturadas da seguinte forma:
04 (quatro) abertas, 02 (duas) mistas, e 03 (três) fechadas. Com a aplicação do questionário
foi construído um panorama da realidade das Editoras Universitárias, em relação aos padrões
de e-books utilizados para disponibilização e editoração dos mesmos nestes ambientes.
4 ANÁLISE E INTERPRETAÇÃO DOS DADOS COLETADOS
Dentre as 63 (sessenta e três) universidades pesquisadas, 15 (quinze) universidades
não dispõem de editoras universitárias, representando um percentual de 23,80% do total.
Apenas 03 (três) universidades não deram retorno, o que corresponde a aproximadamente
4,77% do total.
E identificou-se que, aproximadamente, 71,43% do total, ou seja, 45 universidades
federais brasileiras dispõem de editoras.
Para aplicação do instrumento, se fez necessário coletar os e-mails para contato das
editoras, entrando em contato com assessoria de comunicação das universidades, ou apenas
visitando os sites das editoras. Posteriormente o questionário foi enviado eletronicamente para
3619
as 45 editoras de universidades federais, e ficou ativo para preenchimento durante dois meses,
durante o período de 27/03/2014 a 27/05/14. Deste universo, apenas 44,44% deram retorno,
totalizando 20 editoras.
Como mencionado, o questionário foi composto por 09 questões. As três primeiras
questões diziam respeito às informações básicas sobre as editoras, tais como: nome da editora,
instituição a qual pertencem e e-mail para posterior contato.
As três questões seguintes, dizem respeito à editoração e publicação de e-books. Tem
como finalidade identificar se as editoras trabalham com editoração e publicação de e-books,
os formatos de e-books utilizados, em caso afirmativo, bem como, em caso negativo, a
justificativa do porquê ainda não trabalham com editoração e publicação de e-books.
Identificou-se que 50% das editoras que preencheram o questionário, não trabalham
com editoração e publicação de e-books, mas há a pretensão, por parte das mesmas, em se
trabalhar com esta modalidade de livro. E que as outas 10 editoras, representando 50%,
trabalham com editoração e publicação de e-books. Dentre os formatos de e-books utilizados
por elas, identificou-se que 68,33% utilizam o formato PDF; 18,33% usam o formato ePUB;
3,34% utilizam o formato Mobi e 10% utilizam outros formatos para editoração e publicação
de e-books que não foram listados no questionário
Quanto à utilização de sistemas para editoração de e-books, das 20 editoras
questionadas, 15 editoras, representando 75% do total, não utilizam sistemas para editoração e
publicação de e-books e, apenas 25% utilizam este recurso.
Verificou-se que 05 editoras, das 20 questionadas, utilizam algum sistema eletrônico
no processo de edição de e-books. Dentre esses, o OMP se destaca, por ser utilizado por 02
das 05 editoras que utilizam sistemas eletrônicos. As outras editoras utilizam outros sistemas
que não foram listados no questionário, para o processo de edição de e-books.
No que tange ao quesito disponibilização, 13 editoras, 65% do total, disponibilizam
gratuitamente seus e-books aos usuários, enquanto que 07 delas não os disponibilizam de
forma gratuita, representando 35% do total.
5 CONCLUSÕES
Com base nos dados coletados, através do questionário aplicado às editoras
universitárias brasileiras, a editoração e publicação de e-books, neste contexto, ainda estão em
consolidação. Como visto, 44,44% das editoras questionadas trabalham com e-books. Quanto
ao formato de publicação, verificou-se que 68,33% utilizam o formato PDF, sendo este o
formato, para publicação de e-books, mais utilizado nesta ambiência.
3620
Consequentemente, 55,56% das editoras questionadas ainda não trabalham com
editoração e publicação de e-books.
Quanto à utilização de sistemas automáticos para editoração e publicação de e-books,
foi visto que dentre as 20 editoras participantes, 05 delas utilizam algum sistema para tal. O
sistema com maior destaque foi o OMP utilizado por 02 das 05 editoras que utilizam sistemas
para editoração e publicação de e-books, uma delas sendo a Editora da Universidade Federal
da Paraíba.
A implantação do OMP, na EDUFPB, se deu a partir do uso individual por parte dos
funcionários da mesma, visando à obtenção de práticas e posterior conhecimento, como
também através de treinamentos e reuniões.
Quanto à disponibilização de forma gratuita dos e-books editorados e publicados pelas
editoras para com os seus usuários, 65% delas os disponibilizam gratuitamente.
Por fim, conclui-se que na ambiência da Editora da Universidade Federal da Paraíba,
considerando que o sistema utilizado para editoração e publicação de e-books será o OMP, e
que o mesmo não exige um formato de e-book específico, os formatos de e-books mais
adequados para a disseminação da informação nesta ambiência seriam o PDF, por ser o mais
recorrente nas editoras universitárias brasileiras, bem como o ePUB, por ser o formato mais
recomendado para os e-books.
REFERÊNCIAS
ARAUJO, W. J. et al. Elemento tecnológicos de edição, manipulação, e uso dos livros
digitais. Informação & Sociedade: Estudos, João Pessoa, v. 23, n. 1, p. 13-25, jan. /abr.
2013.
DIAS, G. A. E-books: alguns insights... 2010. Disponível em:
<http://wcro.ccsa.ufpb.br/wrco/?p=63>. Acesso em: 12 fev. 2014.
PUBLIC Knowledge Project. 2012. Open Monograph Press. Disponível em:
<http://pkp.sfu.ca/omp/>. Acesso em: 10 mar. 2014.
VERGARA, S. C. Projetos e relatórios de pesquisa em administração. São Paulo: Atlas, 2006.
3621
BIG DATA APLICADO A SISTEMAS CIBER-FÍSICOS DA LOGÍSTICA: PROPOSTA
DE MODELO CONCEITUAL
BIG DATA APPLIED TO CYBER-PHYSICAL LOGISTIC SYSTEMS: A PROPOSED
CONCEPTUAL MODEL
Moisés Lima Dutra
William Barbosa Vianna
Resumo: Os Sistemas Ciber-físicos combinam aspectos cibernéticos da computação e
comunicação com a dinâmica dos sistemas físicos operados no mundo real. Juntamente com a
grande relevância do gerenciamento e análise das informações com vistas ao planejamento e
controle dos sistemas logísticos, considera-se que utilização de técnicas e tecnologias de Big
Data e Business Analytics possa impulsionar a tomada de decisão dentro destes sistemas.
Neste sentido, o processo de tomada de decisão é estratégico para se lidar com enormes
quantidades de dados, analisar a informação e determinar como se trabalhar com tal volume e
variedade de informações na velocidade adequada. Este trabalho é uma pesquisa aplicada, que
propõe um modelo conceitual para combinar práticas de gestão com a aplicação de técnicas
inovadoras para aquisição e análise de dados nos Sistemas Ciber-físicos. Ao final, conclui-se
que as organizações não irão colher os benefícios de uma transição para o uso de Big Data, a
não ser que sejam capazes de gerenciar efetivamente este processo de mudança.
Palavras-chave: Big Data. Business Analytics. Sistemas Ciber-físicos. Logística.
Abstract: Cyber-Physical Systems combine the cybernetic aspects of computing and
communication with the dynamics and physics of physical systems operating in the real
world. Along with the high relevance of information management and analysis for the
planning and control of logistic systems, we consider that the concepts and tools of Big Data
and Business Analytics may play an important role regarding the decision-making process
within these systems. In this sense, the decision-making process is strategic to deal with large
volumes of data, analyze the information and determine how working with this volume and
variety of information at proper speed. This work is an applied research, which aims to
propose a conceptual model and to investigate management perspectives regarding the
application of innovative techniques for data acquisition and analytics in Cyber-Physical
Logistic Systems. In the end, we can conclude that organizations will not reap the benefits of
a transition with the use of Big Data, unless they are able to manage the change effectively.
Keywords: Big Data. Business Analytics. Cyber-Physical Systems. Logistics.
1 INTRODUÇÃO
Considera-se a Logística uma parte da gestão da cadeia de suprimentos que se ocupa
da movimentação de produtos desde a emissão do pedido até a distribuição, por meio de
estágios, tais como aquisição de matéria prima, produção, movimentações internas e externas
de suprimentos e de distribuição sendo que, neste contexto, destaca-se como ponto crítico o
gerenciamento das informações relativas a este processo (DUTRA et al., 2013).
A competitividade de uma cadeia de suprimentos depende cada vez mais da sua
flexibilidade. As melhores não são apenas rápidas e eficientes, mas igualmente ágeis e
autoadaptáveis (LEE, 2004). Por exemplo, períodos de desenvolvimento mais curtos,
3622
produção de bens variáveis e individualmente configuráveis são estratégias apropriadas para
satisfazer o consumidor e responder tão rápido quanto possível às mudanças de demanda
existentes (RICHTER, 2007). Logo, a logística precisa compensar os requisitos crescentes da
flexibilidade por meio da utilização de uma maior densidade da informação e do emprego de
técnicas inovadoras para a aquisição e análise de dados. Consequentemente, o fluxo da
informação que comanda todo este processo representa uma questão crítica a ser abordada, e
tem propulsionado uma grande quantidade de investimentos em tecnologias de apoio
(BANDEIRA; MAÇADA, 2008; LASETER; OLIVER, 2005), tais como as tecnologias e
técnicas de Big Data.
Este estudo faz parte de um projeto de pesquisa em andamento que envolve a Ciência
da Informação e a Engenharia de Produção. Nele, buscou-se apresentar uma proposta de
modelo conceitual que utilize as técnicas de Big Data aplicadas dentro de um contexto de
Sistemas Ciber-físicos da Logística.
2 SISTEMAS CIBER-FÍSICOS
O conceito de um sistema que una funções físicas e perspectivas relacionadas à
informação vem sido bastante trabalhado ultimamente (BROY, 2010). As capacidades dos
assim chamados Sistemas Ciber-físicos (SCF) permitem a divisão do sistema em diversas
entidades capazes de se comunicar, de reconhecer seu ambiente e de tomar decisões. Um SCF
acumula os benefícios advindos dos sistemas embarcados com a possibilidade de comunicarse numa variedade grande de tecnologias de comunicação. Além disso, eles permitem a
conexão entre o fluxo informacional e o fluxo de material nos processos logísticos
(HRIBERNIK et al., 2010).
A combinação de objetos físicos com inteligência cibernética, trazida pela aplicação
dos SCF, cria um novo potencial para eficiência melhorada, accountability (capacidade para a
prestação de contas), sustentabilidade e escalabilidade nos sistemas logísticos. De fato, esta
combinação é considerada por muitos pesquisadores e usuários como uma das grandes
tendências e um dos maiores desafios da indústria no futuro. Com respeito a esta integração, é
primordial que uma boa gestão de informação seja a viga mestre para o desenvolvimento de
sistemas de apoio à decisão apropriados (DUTRA et al., 2013). O conhecimento deste
contexto é um dos fundamentos dos sistemas ciber-físicos. É possível agregar informação de
sistemas distribuídos de dados relacionados à logística por meio da combinação de padrões e
sistemas já existentes. Através da agregação dos SCF com as redes de comunicação, é
fomentada a interação entre o mundo físico e o mundo cibernético (HANS et al., 2008).
3623
3 BIG DATA E BUSINESS ANALYTICS
De acordo com Krishnan (2013), Big Data consiste de uma vasta quantidade de dados
disponíveis em diferentes níveis de complexidade – criados por humanos ou por máquinas em
diferentes ritmos –, e que apresentam grandes níveis de ambiguidade, de forma que não
podem ser processados computacionalmente por meio da utilização de tecnologias,
dispositivos de comunicação, métodos de processamento e algoritmos tradicionais, além de
qualquer outra solução similar. Segundo Katal et al. (2013), Big Data se refere a grandes
quantidades de dados que necessitam de novas tecnologias e arquiteturas para efetuar a
recuperação da informação, que deve ser feita através de processos específicos de coleta e
análise.
Business Analytics (BA) é um conceito definido como a aplicação de várias técnicas
avançadas de análise de dados, de maneira a responder determinadas indagações ou resolver
problemas numa determinada área do conhecimento (DAVENPORT, 2009). Esta definição se
refere ao uso de modelos quantitativos e preditivos e de apoio baseado em fatos para o suporte
à decisão. O significado de BA abrange mineração de dados, análise preditiva, estatística e
análise aplicada. Desta forma, pode-se ver que o conceito de BA possui muitas similaridades
com o conceito de Big Data, pois ambos procuram recuperar informações a partir de dados.
Ward e Barker (2013) relatam que, depois de analisarem diversas definições de Big
Data, chegaram à conclusão de que todas fazem alusão a três importantes aspectos: (i)
tamanho: o volume de dados é um fator crítico; (ii) complexidade: a estrutura, seu
comportamento e as permutas feitas entre os datasets também são um fator crítico; e (iii)
tecnologia: as ferramentas e técnicas usadas para processas os datasets são essenciais.
No entanto, em consonância com a análise acima, três aspectos diferenciam Big Data
de BA: volume, velocidade e variedade. O seja, os dados do Big Data, juntamente com a
tecnologia necessária para coletá-los e processá-los, diferem do BA pelos enormes valores
nesses três aspectos. Além disso, em alguns casos, a velocidade da criação de dados é até mais
importante do que o volume dos mesmos, por exemplo, informação em tempo-real, ou em
tempo-quase-real, pode ser decisiva para o sucesso ou fracasso de sistemas que operem nesta
velocidade (WARD; BARKER, 2013). Com relação às características do conteúdo existente
no Big Data, pode-se verificar que são diversas e variadas entre si. A Figura 1 mostra algumas
destas características.
Dados dentro do Big Data podem ser coletados sob diversas formas, Por exemplo, sob
a forma de atualizações em redes sociais (Facebook, Instagram), mapeamento remoto (Google
Maps, GPS), fotos (Flickr), vídeos (Youtube), ferramentas de busca (Google, DuckDuckGo),
3624
entre outras. Todas essas formas de dados formam um subconjunto Big Data conhecido como
dados não-estruturadas. Cada pessoa, hoje em dia, é um produtor de dados em potencial. As
tecnologias mais tradicionais, que processam dados estruturados, tais como bases de dados
estruturadas, não servem completamente para o armazenamento e processamento no ambiente
Big Data. As novas tecnologias (armazenagem, memória, processamento e largura de banda)
que surgiram nos últimos anos foram as grandes impulsionadoras da análise de dados no
contexto Big Data (ARELLANO, 2013).
FIGURA 1 – Conteúdo Big Data
Fonte: Os autores
Além disso, o desenvolvimento dos processos de virtualização e a distribuição de
produtos/serviços dentro dos ambientes colaborativos requerem a integração de processos e a
interoperabilidade semântica de dados e informação, bem como o uso de ontologias para
facilitar tal integração. Há uma série de tarefas potencialmente beneficiárias do uso de
ontologias no contexto da integração logística numa cadeia de suprimentos. Representar
formalmente um processo, produto ou serviço significa dar um passo fundamental na direção
de se remover a ambiguidade, que é um problema crucial no ambiente Big Data. Além disso,
uma boa representação ontológica permite inferir e recuperar a informação que não está
explícita à primeira vista, o que possibilita identificar qualquer situação conflitante ou
inconsistente dentro do contexto das relações entre as entidades do sistema. Com uma longa
tradição nos campos da Filosofia, Ciência da Computação e Ciência da Informação, as
ontologias provêm suporte para a engenharia do conhecimento e para a inteligência artificial,
por meio da modelagem das diversas áreas do conhecimento em termos de conceitos,
3625
atributos e relações, geralmente classificadas em relações hierárquicas do tipo
especialização/generalização (SIMPERL, 2009; MCKINSEY GLOBAL INSTITUTE, 2011).
4 MODELO BIGLOGDATIX
Este trabalho é uma pesquisa aplicada, que propõe um modelo conceitual para
combinar práticas de gestão com a aplicação de técnicas de Big Data para aquisição e análise
de dados dentro de um contexto de Sistemas Ciber-físicos da Logística.
As modernas organizações que estão envolvidas em projetos de desenvolvimento de
novos produtos/serviços, para continuarem competitivas, deveriam adotar métodos flexíveis
de trabalho de maneira a satisfazer as numerosas e variadas demandas do mercado global.
Esta flexibilidade deveria não somente se constituir da capacidade de oferecer boas respostas
aos seus clientes, mas também da capacidade de se detectar potenciais mudanças e futuras
tendências em todo o sistema. No cenário dos sistemas ciber-físicos, esta estratégia significa
combinar e coordenar todos os atores envolvidos – humanos e não-humanos –, desde a
entrada da matéria-prima até a entrega do produto/serviço final.
Esta combinação depende do complexo processo de integração de três problemas
essenciais: computação, controle e comunicação (CYBER-PHYSICAL SYSTEMS, 2012).
Integrar estas três dimensões significa considerar os diferentes participantes e seus pontos de
vista, diferentes áreas de conhecimento, diferentes topologias de rede e equipamentos,
diferentes requisitos e diferentes estágios de atividades locais e globais. Quando este processo
é completado com sucesso, ele é capaz de produzir um sistema autoadaptável e mais ágil.
O modelo proposto (Figura 2) procura satisfazer critérios reativos e pró-ativos, pois o
mesmo processa não somente informação de feedback (por exemplo, opinião de consumidores
sobre determinado produto), como também procura revelar prognósticos e descobrir
informações que se configurem tendências. De maneira a manter este sistema sustentável e
escalável, considera-se que o compartilhamento de informação é um atributo fundamental,
pois fornece entradas de dados pré-processadas a atores humanos e não-humanos, de maneira
que estes possam utilizá-las para tomar decisões melhores. As informações de feedback irão
permitir ajustes, correções e atualizações em todo o SCF. Informações do tipo prognóstico e
tendências futuras – inferidas e produzidas através de técnicas de análise – serão a base para
ações da organização visando inovação, antecipação e estratégias criadoras de valor, que
visam o ganho competitivo em relação aos competidores. Para que tal cenário seja alcançado,
o modelo BigLogDatix irá se beneficiar de técnicas de Big Data e Business Analytics.
3626
Destacamos os esforços feitos para que o modelo BigLogDatix combine aspectos de
computação, controle e comunicação do Big Data, já que a integração destes três domínios é
um dos principais desafios da pesquisa nos SCF (CYBER-PHYSICAL SYSTEMS, 2012). O
BigLogDatix é estruturado em módulos distribuídos e ligados em rede. Cada um desses
módulos é configurável e instanciável para um cenário específico da cadeia de suprimentos.
Isto é, estes módulos são customizáveis para diferentes atores da logística, tais como o
controle do chão de fábrica, o gestor da relação com o consumidor, o grupo de BA, entre
outros. Apesar das circunstâncias serem diferentes, os métodos e técnicas utilizados são
similares.
FIGURA 2 – Módulo BigLogDatix
Fonte: Os autores.
Um Data Warehouse é proposto para integrar os dados coletados nas diferentes
origens. Este repositório central será alimentado através de processos ETL (extract,
transform, load), que transformarão os dados de seus formatos previamente coletados em
formato BigLogDatix. Além disso, propomos igualmente uma representação ontológica da
informação, de maneira que se possa efetuar um processo de inferência da informação e do
conhecimento. O resultado deste motor de inferência irá alimentar uma Base de
Conhecimento, que será utilizada para a descoberta e reconhecimento de informações e
conhecimentos tácitos. Bohn e Short (2010) dizem que:
[...] há muito critérios em potencial para medir o valor da informação,
incluindo julgamento subjetivo, preço de venda, disposição dos
consumidores em pagar, custo de desenvolvimento tamanho do público. Mas
3627
não há maneira de comparar valor, especialmente quando se compara
informação de diferentes tipos.
Considerando esta afirmação, propomos uma máquina de inferência para inferir e
comparar, a partir de representações ontológicas, o valor da informação.
Desta forma, o modelo conceitual BigLogDatix pretende apoiar o processo de tomada
de decisão no contexto Big Data. Consideramos que os problemas não têm apenas uma
existência física, mas que eles dependem da intervenção de um ou mais atores humanos e
não-humanos que interagem por meio dos processos de comunicação, controle e computação,
dentro da tomada de decisão nos SCF aplicados à logística.
5 CONCLUSÕES
Consideramos estar no limiar de uma grande mudança da maneira pela qual decisões
são tomadas dentro das organizações. Podemos estar testemunhando um período no qual a
micro-segmentação de tempo-real de cidadãos e consumidores irá atingir o seu pico, através
da evolução e do uso das técnicas de Big Data e Business Analytics. Estratégias sofisticadas
de análise podem melhorar substancialmente o processo de tomada de decisão, minimizar
riscos e descobrir informações importantes, que de outra forma permaneceriam ocultas.
AGRADECIMENTOS
Este trabalho foi parcialmente financiado pelo CNPq (Conselho Nacional de
Desenvolvimento
Científico
e
Tecnológico),
no
escopo
da
chamada
MCTI/CNPq/MEC/CAPES – 43/2013, que apoia financeiramente projetos que visem
contribuir significativamente para o desenvolvimento científico e tecnológico e para a
inovação do País nas áreas de Ciências Humanas, Sociais e Sociais Aplicadas.
REFERÊNCIAS
ARELLANO, N. 3 key differences between big data and analytics. It World Canada, 22
Set. 2013. Site dedicado à veiculação de notícias de tecnologia de informação. Disponível em:
<http://www.itworldcanada.com/post/3-key-differences-between-big-data-and-analytics>.
Acesso em: 30 Jul. 2014.
BANDEIRA, R. A. M.; MAÇADA, A. C. G. Tecnologia da informação na gestão da cadeia
de suprimentos: o caso da indústria gases. Produção, São Paulo, v. 18, n. 2, 2008.
BOHN, R. E.; SHORT, J. E. How Much Information? 2009 Report on American
Consumers. Global Information Industry Center, University of California, San Diego, Janeiro
2010. Available in: <http://hmi.ucsd.edu/pdf/HMI_2009_ConsumerReport_Dec9_2009.pdf>.
Acesso: 30 Jul. 2014.
BROY, M. Cyber-Physical Systems — Wissenschaftliche Herausforderungen Bei Der
Entwicklung, In: acatech DISKUTIERT, 0:17-31. 2010.
3628
CYBER-PHYSICAL SYSTEMS: Milestones and research challenges. Computer
Communications. Editorial. Elsevier, n. 36, pg 1-7, 2012.
DAVENPORT, T. Realizing the Potential of Business Analytics: Plenty of Food for those
with the Appetite. Wellesley, MA, USA: Babson, 2009. Disponível em:
<http://analytics.typepad.com/files/retailanalytics.pdf>. Acesso em: 30 Jul. 2014.
DUTRA, M.L.; VIANNA, W. B.; MATIAS, M.; PINTO, A. L. Uma Abordagem Baseada em
Ontologias para a Área da Logística. In: ALMEIDA, F.A.S.; SILVA, A.M.; FRANCO,
M.J.B.; BRITO, P.Q.; FREITAS, C.C. (Org.). Coletânea Luso-Brasileira IV: Gestão da
informação, Inovação e Logística. 1ed.Goiânia: Senai, 2013, v. 1, p. 533-560.
HANS, C.; HRIBERNIK, K. A.; THOBEN, K. D. An approach for the integration of data
within complex logistics systems. In: Dynamics in Logistics. Springer Berlin Heidelberg,
381-390. 2008.
HRIBERNIK, K.; KRAMER, C.; HANS, C.; THOBEN, K. D. A Semantic Mediator for Data
Integration in Autonomous Logistics Processes. In: Enterprise Interoperability IV.
Springer, London, 157-167. 2010.
KATAL, A.; WAZID, M.; GOUDAR, R.H. Big data: Issues, challenges, tools and Good
practices. In: International Conference on Contemporary Computing (IC3), VI, 8-10 Ago.
2013. Disponível em: < http://ieeexplore.ieee.org/xpls/icp.jsp?arnumber=6612229&tag=1 >.
Acesso em: 30 Jul. 2014.
KRISHNAN, K. Data Warehousing in the Age of Big Data. Newnes. 2013. ISBN: 978-0-12405891-0.
LASETER, T.; OLIVER, K. The Missing Link – When will Supply chain management grow
up?. Strategy + business, Booz Allen & Hamilton, 2005.
LEE, H. L. Cadeias de suprimentos do século XXI: Cadeia de suprimentos triplo A. Havard
Business Review. p.74-84. 2004.
MCKINSEY GLOBAL INSTITUTE. Big data: The next frontier for innovation, competition,
and productivity. Technical Report, McKinsey Global Institute. 2011.
RICHTER, K. Aufbau globaler Netzwerke als Erfolgsfaktor in der Automobilindustrie. In:
Die Automobilindustrie auf dem Weg zur globalen, Springer, 251-264. 2007.
SIMPERL, E. Reusing ontologies on the Semantic Web: A feasibility study. Data and
Knowledge Engineering. 2009.
WARD, J. S; BARKER, A. ndefined By D t : A S rvey of Big D t Definitions. Saint
Andrews: University of Saint Andrews, 20 Set. 2013. Disponível em:
<http://arxiv.org/pdf/1309.5821v1.pdf>. Acesso em: 30 Jul. 2014.
3629
VISUALIZAÇÃO DE CORRESPONDÊNCIAS SEMÂNTICAS NO UNIVERSO BIG
DATA
VISUALIZING SEMANTIC CORRESPONDENCES IN BIG DATA ENVIRONMENTS
Moises Lima Dutra
Marcio Matias
Resumo: O Big Data consiste de uma vasta quantidade de dados disponíveis em diferentes
níveis de complexidade – criados por humanos ou por máquinas, em diferentes ritmos – e que
apresentam grandes níveis de ambiguidade, de forma que não podem ser processados
computacionalmente por meio da utilização de tecnologias, dispositivos de comunicação,
métodos de processamento e algoritmos tradicionais, além de qualquer outra solução similar.
Desta forma, pode-se dizer que a recuperação da informação nessas grandes aglomerações de
dados necessita de novas tecnologias e técnicas de apoio, que deverão modificar os processos
tradicionais de coleta e análise da informação. Este trabalho utiliza abordagem qualiquantitativa. Trata-se de uma pesquisa exploratória e aplicada, que envolve pesquisa
bibliográfica e faz parte de dois projetos de pesquisa em andamento. O objetivo deste trabalho
é apresentar uma proposta preliminar para o desenvolvimento de visualizador de
correspondências semânticas no contexto Big Data, de maneira a facilitar a interação humanocomputador. Por fim, concluiu-se que a possibilidade de visualizar correspondências
semânticas dentro do universo Big Data, com interfaces adequadas quanto a sua usabilidade,
pode melhorar sensivelmente o processo humano de tomada de decisão, pois possibilita
descobrir e trazer à tona informações importantes, que de outra forma permaneceriam ocultas.
Palavras-chave: Big Data. Visualização. Correspondências semânticas. Ontologias.
Usabilidade.
Abstract: Big Data consists of a vast amount of data available in different complexity levels,
created by humans or machines at diverse paces and presenting several levels of ambiguity, so
that they cannot be computed by using traditional technologies, communication devices,
processing methods, algorithms or any off-the-shelf solution. In this sense, we can say that
retrieving information in these huge datasets requires new supporting technologies and
techniques, which should in turn change the traditional processes of information gathering and
analysis. This work is a bibliographic and applied research, and is part of two ongoing
research projects, supported by CNPq. It presents a preliminary proposed visualizer for
semantic correspondences in Big Data, in order to facilitate the human-computer interaction.
In the end, we can conclude that visualizing semantic correspondences with usability in the
Big Data context substantially improves the human decision-making process, since it enables
to unfold important information, which would otherwise remain unknown.
Keywords: Big Data. Visualization. Semantic correspondences. Ontologies. Usability.
1 INTRODUÇÃO
Big Data é um termo utilizado para descrever as volumosas quantidades de
informações estruturadas, semi-estruturadas e não-estruturadas que as organizações
produzem. Essas informações levariam muito tempo e necessitariam de muitos recursos para
serem todas carregadas em uma base de dados convencional, de maneira que pudessem ser
analisadas pelos modelos tradicionais. Embora não haja uma definição formal quanto à
3630
quantidade desses dados, convencionou-se usar o termo Big Data para situações em que se
trata de petabytes ou exabytes de dados (MCKINSEY GLOBAL INSTITUTE, 2011).
Segundo IBM (2012), diariamente são criados e disponibilizados 2,5 quintilhões de
bytes de dados. Este volume é de tal monta que 90% dos dados existentes no mundo hoje
foram criados nos dois últimos anos. Além disso, 80% dos dados existentes não estão
estruturados. “Esses dados vêm de toda parte: sensores usados para coletar informações
climáticas, textos postados em redes sociais, fotos e vídeos digitais, registros de transações de
compra e venda, informações de GPS e de telefones celulares, apenas para nomear alguns.
Isto é Big Data”.
O conceito de Big Data se estende por três dimensões: volume, velocidade e
variedade. Para IBM (2012, tradução livre), estas dimensões estão assim representadas:
Volume: as organizações estão “atoladas” em um número cada vez mais
crescente de dados de todos os tipos, facilmente acumulando terabytes –
às vezes mesmo petabytes – de informação. Exemplos de desafios:
Como analisar os 12 terabytes de mensagens postadas no Twitter
diariamente? Ou converter as 350 bilhões de leituras anuais dos
medidores para melhor prever o consumo de energia?
Velocidade: Algumas vezes, 2 minutos podem ser tempo demais. Para
processos baseados no tempo, como a detecção de fraudes eletrônicas, a
ideia de Big Data pode ser utilizada pelas organizações, com o intuito de
maximizar
suas
potencialidades.
Exemplos:
i)
Examinar
minunciosamente 5 milhões de transações comerciais feitas diariamente,
para identificar potenciais fraudes. ii) Analisar 500 milhões de chamadas
telefônicas diárias em tempo real, para identificar clientes em potencial.
Variedade: Big Data é qualquer tipo de dado – estruturado ou não –,
como texto, dados de sensores, áudio, vídeo, sucessão de cliques,
registro de operações em determinado sistema, e muito mais. Novas
ideias surgem quando todos esses tipos de dados são analisados juntos.
Exemplos: i) Monitorar 100% das imagens de vídeos obtidas a partir de
câmeras de segurança de maneira e identificar pontos de interesse. ii)
Explorar 80% do aumento de imagens, vídeos e documentos em geral,
de maneira a incrementar a satisfação dos usuários.
De acordo com o HMI Report of Global Information Industry Center (BOHN;
SHORT, 2010), a quantidade de informação armazenada em sistemas locais ou distribuídos e
disponibilizada publicamente na Web – ou de maneira privada, via bases de dados
3631
proprietárias – está em constante crescimento. Estima-se que o consumo de informação per
capita diário gire em torno de 34GB por pessoa. Para Robredo (2011),
[...] essas quantidades de dados irão, cada vez em maior escala, para alguma
nuvem, e uma grande parte desses dados – mas não sempre os mesmos –
estarão permanentemente em linha. [...] dos 35 ZB em 2020, 12 ZB passarão
em algum momento por uma nuvem, e 5 ZB se fixarão numa nuvem. [...]
dados médicos, de segurança nacional, estratégicos, dados bancários,
cadastros de clientes, endereços de e-mails, sistemas cooperativos, grupos
sociais, e mil coisas mais já estão armazenadas em alguma nuvem.
Um zettabyte (ZB) equivale a um sextilhão de bytes. Segundo Sanchati e Kulkarni
(2011), em breve as unidades de informação estarão construindo e gerenciando seus próprios
data centers. Os autores também acham que a utilização da nuvem computacional é uma
escolha bastante atrativa, e que será desafiada pelo crescimento do número de documentos
indexados e pelas novas ferramentas tecnológicas que surgirem mais à frente.
Para Mayer-Schönberger e Cukier (2013, tradução livre),
Na sua essência, o Big Data trata de previsões. Embora seja descrito como
um ramo da Ciência da Computação chamado Inteligência Artificial, e mais
especificamente como uma subárea desta, chamada Aprendizado de
Máquina (Machine Learning), esta classificação não está totalmente correta.
Big Data não diz respeito a “ensinar” um computador a “pensar” como
humanos. Ao invés disso, diz respeito à aplicação de técnicas matemáticas
em grandes quantidades de dados de maneira a inferir probabilidades, por
exemplo: a possibilidade de que um e-mail seja um spam; que a palavra
digitada “cinêcia” seja na verdade “ciência”; que a velocidade e a trajetória
de uma pessoa distraidamente atravessando uma rua implique que um carro
auto-dirigido deva ajustar sua velocidade de maneira gradual, para dar tempo
à mesma de chegar ao outro lado. A chave para o bom desempenho destes
sistemas é a alimentação dos mesmos com enormes quantidades de dados,
sobre os quais previsões serão feitas. Além disso, os sistemas são
construídos para se autoaperfeiçoar com o passar do tempo, através do
registro das melhores informações e dos melhores padrões obtidos, a partir
dos quais novas informações serão procuradas futuramente. [...] No futuro –
e mais cedo do que imaginamos – muitos aspectos de nosso mundo serão
melhorados ou substituídos por sistemas computacionais que facilitarão a
extensão do julgamento humano.
Esta capacidade de “aprender a pensar” está relacionada com um conceito herdado da
filosofia: a ontologia. De acordo com o Novo Dicionário Aurélio da Língua Portuguesa
(2004), Ontologia é uma “parte da filosofia que trata do ser enquanto ser, i. e., do ser
concebido como tendo uma natureza comum que é inerente a todos e a cada um dos seres”.
Noy et al. (2001) afirmam que ontologias combinadas juntamente com um conjunto de
instâncias de classes constituem uma base de conhecimento. “Há uma linha tênue que define
onde a ontologia acaba e a base de conhecimento começa” (NOY et al., 2001, tradução livre).
Em uma visão voltada à Ciência da Informação, as ontologias tratam das construções
que estruturam conteúdos explícitos e que são capazes de codificar as regras implícitas de
3632
uma parte da realidade, ainda que trabalhem com declaração explícita independente do fim do
domínio da aplicação (GARCÍA JIMÉNEZ, 2002), no qual o foco nas suas representações em
prol de uma eficiente recuperação da informação, baseado em taxonomias e tesauros e
linguagem natural da área. Para Bloehdorn et al. (2009), ontologias são essenciais para
facilitar a interoperabilidade semântica e a integração de dados e processos. Eles também
acreditam que nós estamos atualmente entrando em uma fase do desenvolvimento de sistemas
na qual ontologias são produzidas em grande número e grande complexidade. Desta forma, a
criação e gestão de infraestruturas para ontologias seriam necessárias para servir de suporte ao
crescente número de aplicações, especialmente da Web Semântica, que trabalham com
interoperabilidade semântica dentro das organizações.
Podemos considerar, portanto, a utilização de ontologias como sendo de grande
importância no contexto Big Data, pois as mesmas permitem um tipo de representação que
facilita a descoberta de correspondências semânticas entre conceitos a priori distintos. Estas
correspondências poderão ser utilizadas como base para a recuperação de informações e
conhecimentos implícitos.
O objetivo deste trabalho é apresentar uma proposta preliminar para o
desenvolvimento de visualizador de correspondências semânticas no contexto Big Data, com
usabilidade.
2 VISUALIZAÇÃO E USABILIDADE
A proposta de desenvolvimento de um visualizador de correspondências semânticas no
contexto Big Data utilizará conceitos e princípios de usabilidade, ou de facilidade de uso.
Vale ressaltar, que a usabilidade é uma característica essencial para facilitar o uso de sistemas,
e a compreensão das informações apresentadas por um sistema de informação, ou por
quaisquer elementos gráficos que possam representar informações para os usuários em um
ambiente computacional.
Segundo a norma ABNT NBR ISO 9241-11, a usabilidade é definida como: “medida
na qual um produto pode ser usado por usuários específicos para alcançar objetivos
específicos com eficácia, eficiência e satisfação em um contexto específico de uso”
(ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS, 2011).
Na interação entre a engenharia de usabilidade e a Ciência da Informação, surgem
oportunidades para que especialistas em usabilidade e profissionais da informação possam
trabalhar conjuntamente, interagir e compartilhar conhecimento a fim de projetar e
desenvolver sistemas que possuam maior qualidade em suas interfaces.
3633
De acordo com Wilkes (2012), especialistas em usabilidade possuem o conhecimento
para melhorar usabilidade de dados, garantindo não apenas que as pessoas que precisam de
certos dados, possam acessá-los da forma que esperam (a partir de notebooks, smartphones
e/ou outros dispositivos móveis), mas que também estejam de forma adequada: significativa,
agradável, atrativa e útil. Além disto, os especialistas em usabilidade e os profissionais da
informação possuem conhecimento para sugerir soluções nas quais os metadados sejam
melhor integrados com mostradores e painéis de dados, com a indicação dos dados que
possuem maior qualidade e confiabilidade.
A complexidade envolvida na visualização de um grande volume de dados tem sido
um tema desafiador para a Ciência da Informação, a Ciência da Computação, o Design, a
Ergonomia e a Engenharia de Usabilidade; e algumas pesquisas, têm buscado desenvolver e
testar possibilidades que possam gerar alternativas que permitam representar os mesmos
fenômenos a partir de um conjunto menor de dados.
Paul e Bruns (2013), por exemplo, realizaram um estudo nesta linha com o Twitter no
qual analisaram mais de 164.000 tweets coletados durante o terremoto de 2011 para descobrir
que tipo de informação específica sobre localização, os usuários mencionaram nos seus
tweets, e em que momento eles trocaram informação sobre isto. Baseados em sua análise,
descobriram que mesmo um conjunto de dados reduzido, não caracterizado como Big Data,
pode ser útil para encontrar rapidamente áreas específicas de desastres. Com esta estratégia,
nesta situação, conseguiram descobrir que área requer mais ajuda, e também os nomes dos
lugares que foram atingidos mais gravemente durante o desastre.
Entretanto, o grande desafio tem sido utilizar efetivamente grandes volumes de dados
caracterizados como Big Data. Diversos visualizadores têm sido desenvolvidos e utilizados
como instrumentos para entregar a informação de forma facilitada para os usuários.
Takeda et al. (2012) desenvolveram uma ferramenta de visualização chamada
Irregular Trend Finder (ITF) que foi projetada para análise de grandes volumes de dados, e
que utiliza princípios de usabilidade, pois permite a utilização de estruturas hierárquicas, a fim
de que o usuário possa obter primeiro uma visão geral, e depois, possa obter informação mais
detalhada sob demanda. Os resultados dos estudos com esta ferramenta mostraram que
abordagem utilizada mostrou-se eficiente para os usuários buscarem informações particulares
em grandes volumes de dados.
Schievelbein et al. (2014) descrevem um exemplo de ferramenta de visualização de
ontologias e de captura e modelagem de conhecimento visual para um grupo de usuários
3634
especialistas da área de Geologia em um ambiente Web 2.0. A Figura 1 apresenta um
exemplo de tela desta ferramenta chamada OBAITA.
FIGURA 1 – Exemplo de ferramenta de visualização de ontologias – OBAITA
Fonte: Schievelbein et al. (2014)
3 ASPECTOS METODOLÓGICOS
Esta pesquisa é exploratória, e utiliza a abordagem quali-quantitativa. A abordagem
qualitativa está associada à avaliação da usabilidade da ferramenta a ser desenvolvida; e a
quantitativa está presente principalmente no tratamento dos dados referentes à visualização
das correspondências semânticas.
Este estudo utiliza pesquisa bibliográfica, o paradigma da orientação a objeto para
especificação e desenvolvimento da ferramenta de visualização, e as técnicas de avaliação de
interfaces humano-computador da engenharia de usabilidade: avaliação heurística e inspeção
de usabilidade (CYBIS, 2010).
Este trabalho envolverá as seguintes etapas a serem realizadas: levantamento
bibliográfico sobre Big Data, visualização, correspondências semânticas, ontologias e
usabilidade; levantamento sobre ferramentas existentes que integrem estes temas e conceitos;
especificação da ferramenta de visualização proposta; desenvolvimento da ferramenta
proposta; avaliação da usabilidade da ferramenta desenvolvida.
4 CONSIDERAÇÕES FINAIS
Vale ressaltar que este estudo faz parte de um projeto de pesquisa em andamento, e
que, portanto, seus resultados parciais envolvem a construção da proposta que se caracteriza
3635
por explorar a interação entre as áreas de Ciência da Informação, Ciência da Computação e
Engenharia de Usabilidade e, mais especificamente, a aplicação integrada dos conceitos de
big data, visualização, correspondências semânticas, ontologias e usabilidade.
A partir da literatura já levantada e consultada, pode-se afirmar que tal abordagem de
integração mostrou-se viável e potencialmente profícua.
AGRADECIMENTOS
Este trabalho foi parcialmente financiado pelo CNPq (Conselho Nacional de
Desenvolvimento
Científico
e
Tecnológico),
no
escopo
das
chamadas
MCTI/CNPq/MEC/CAPES – 43/2013 (que apoia financeiramente projetos que visem
contribuir significativamente para o desenvolvimento científico e tecnológico e para a
inovação do País nas áreas de Ciências Humanas, Sociais e Sociais Aplicadas) e MCTI/CNPq
– 14/2013 (Chamada Universal).
REFERÊNCIAS
ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR ISO 9241-11: requisitos
ergonômicos para o trabalho com dispositivos de interação visual – Parte 11 – orientações
sobre usabilidade. Rio de Janeiro, 2011.
BLOEHDORN S., HAASE P., HUANG Z., SURE Y., VÖLKER J., VAN HARMELEN F.,
STUDER R. (2009). Ontology Management. In J. Davies et al. (eds.), Semantic Knowledge
Management, Springer Berlin Heidelberg, 2009.
BOHN, R. E.; SHORT, J. E. How Much Information? 2009 Report on American
Consumers. HMI Report of Global Information Industry Center, University of California, San
Diego, Janeiro, 2010. Disponível em:
<http://hmi.ucsd.edu/pdf/HMI_2009_ConsumerReport_Dec9_2009.pdf>. Acesso em: 30 de
julho de 2014.
CYBIS, W. Ergonomia e usabilidade: conhecimentos, métodos e aplicações. 2. ed. São
Paulo: Novatec, 2010.
GARCÍA JIMÉNEZ, A. Organización y gestión del conocimiento en la comunicación.
Madrid: TREA, 2002.
IBM. What is big data? In: Bringing big data to the enterprise. Disponível em:
<http://www.ibm.com/big-data/us/en/>. Acessado em: 30 de julho de 2014.
MAYER-SCHÖNBERGER, V.; CUKIER, K. Big Data: A Revolution that will transform
how we live, work, and think. New York: Houghton Mifflin Harcourt, 2013.
MCKINSEY GLOBAL INSTITUTE. Big data: The next frontier for innovation, competition,
and productivity. Technical Report, McKinsey Global Institute, Junho 2011.
NOVO DICIONÁRIO AURÉLIO DA LÍNGUA PORTUGUESA: revista e atualizada do
Aurélio Século XXI, 3. edição, 1. Impressão, Editora Positivo, 2004.
3636
NOY N.F., McGUINNESS D.L. Ontology Development 101: A Guide to Creating Your First
Ontology. Stanford Knowledge Systems Laboratory Technical Report KSL-01-05 and
Stanford Medical Informatics Technical Report SMI-2001-0880, March 2001.
PAUL, A.; BRUNS, A. Usability of small crisis data sets in the absence of big data. In Ariwa,
Ezendu, Zhao, Wenbing, & Gandhi, Meenakshi (Ed.) Proceedings of the 2013 International
Conference on Information, Business and Education Technology, Atlantis Press, Beijing,
China, p. 718-721.
ROBREDO, J. Do documento impresso à informação nas nuvens: reflexões. Liinc em
Revista, Rio de Janeiro, v.7, n.1, março, 2011.
SANCHATI, R.; KULKARNI, G. Cloud Computing in Digital and University Libraries.
Global Journal of Computer Science and Technology, v. 11, n. 12, Jul. 2011.
SCHIEVELBEIN, G. et al. Usabilidade em ambientes colaborativos para construção de
ontologias de domínio com conhecimento visual. Disponível em:
http://www.lume.ufrgs.br/handle/10183/47562. Acesso em: 29 de julho de 2014.
TAKEDA, S. et al. Irregular Trend Finder: visualization tool for analyzing time-series big
data. IEEE Symposium on Visual Analytics Science and Technology, 2012.
WILKES, S. Some Impacts of ”Big Data” on Usability Practice. Communication Design
Quarterly Review, v. 13, n. 2, p. 25, Jun. 2012.
3637
SÍNDROME DE GABRIELA” EM MA
M NIDADE RURAL DE JOÃO PESSOA:
RESISTÊNCIA E ACEITAÇÃO DAS TECNOLOGIAS DE INFORMAÇÃO E
COMUNICAÇÃO NO PROCESSO DE ALFABETIZAÇÃO E INCLUSÃO DIGITAL
SÍNDROME DE GABRIELA" IN A RURAL COMMUNITY OF JOAO PESSOA: RESISTANCE
AND UPTAKE OF INFORMATION AND COMMUNICATION TECHNOLOGIES IN THE
PROCESS OF LITERACY AND DIGITAL INCLUSION
Raíssa Carneiro de Brito
Resumo: Diante da experiência no projeto de alfabetização de inclusão digital Luz do Saber
em uma comunidade rural de João Pessoa, foi percebida a existência de um fenômeno: em
uma localidade com aproximadamente 400 famílias, atualmente há 28 alunos matriculados,
sendo apenas 13 alunos o que frequentam assiduamente. a dificuldade do sujeito em vivenciar
o uso das tecnologias denomina-se, aqui, “síndrome de Gabriela”, termo que passou a ser
utilizado popularmente após a novela de Gabriela, Cravo e Canela, de Jorge Amado, tendo
como protagonista a Gabriela, mulher simples que não se adaptava aos costumes da vida
urbana e cuja trilha sonora, música de Gal Costa, diz “... Eu nasci assim, eu sou mesmo assim,
vou ser sempre assim, do meu jeito assim, Gabriela...”. O projeto Luz do Saber na
comunidade rural Engenho Velho, em João Pessoa, no estado da Paraíba, é uma oportunidade
de letramento direcionada às pessoas que lá residem através do computador com atividades
interativas em jogos didáticos, em que o aluno é alfabetizado. A análise do fenômeno
encontrado nesta comunidade é amparada pela teoria das Limitações Digitais, desenvolvida
por Bellini et al. (2010), que apresenta um modelo tridimensional que aborda limitações de
acesso, limitações cognitivo-informacionais e limitações comportamentais. A pesquisa será
conduzida através da construção do referencial teórico sobre o tema abordado e contará com o
apoio da técnica de coleta de dados do Grupo Focal, cuja discussão abordará questões
orientadas no modelo TAM (modelo de aceitação de tecnologia), através da análise de
conteúdo das opiniões expressas. Referenciando tal procedimento, serão construídas
recomendações para que outros projetos sociais com características semelhantes possam ser
conduzidos a fim de alcançar seus objetivos e assim alcançar maior aceitação da população.
Palavras-chaves: Projeto social; Comunidade Rural; Limitações Digitais; Grupo Focal;
Síndrome de Gabriela.
Abstract: From the experience in the project of digital inclusion littering called by “Luz do
Saber” (Light of Knowledge) in a rural community at Joao Pessoa, it emerged the searching
about a phenomenon present in this community, where is observed that from approximately
400 families, we have now 28 students enrolled, but only 13 attending assiduously. This
challenge of changing is called, in this research, by “Gabriela’s Syndrome”, term that starts to
be used commonly after the soap opera “Gabriela cravo e canela”, written by Jorge Amado, in
which Gabriela was the protagonist. She was a simple woman who did not get used to the
urban life. The soundtrack says “... I was born on this way. I am just like this way. I will be
always like this way that is my own way, Gabriela…”. The project “Luz do Saber”, at the
rural community in Engenho Velho, Joao Pessoa, is an opportunity for people who live there
being able to literate through interactive activities like didactics games on the computer that
help the student to became literate. However, despite all these resources that the program
offers, the project has a strong resistance to the population changing of the rural community.
Helped by the theory of Digital Limitations, developed by Bellini et al 2010, which presents a
tridimensional model of Access Limitation, Informational Cognitive Limitation and
Behavioral Limitation, The research will be conducted through the construction of theoretical
3638
references about the project’s subject and will count on Focal Group’s support of data collect
technic, where it will be discussed questions based on TAM’s model (model of acceptation
technology). From analysis of public opinions content, it will be produced advices that other
similar social projects can take in order to target their goals and a higher popular acceptance.
Key-words: Social Project; Rural Community; Digital Limitations; Gabriela Syndrome;
Focus Group.
1 INTRODUÇÃO
Presencia-se
na
sociedade
da
informação
grandes
desigualdades
sociais,
principalmente em países em desenvolvimento como é o caso do Brasil e de outros países da
América latina. Na contraposição de tantos avanços nos âmbitos das Tecnologia de
Informação e Comunicação (TICs), vivencia-se problemas de desemprego, educação precária
com grandes índices de analfabetismo que geram a falta de condições básicas para o exercício
da cidadania.
Na contemporaneidade as relações sociais estão cada vez mais sendo intermediadas
por equipamentos eletrônicos. A sociedade avança tecnologicamente criando uma lacuna com
os aspectos sociais, sem procurar entender como essas inovações impactam na vida dos
indivíduos, nos aspectos cognitivos e comportamentais, sendo um desafio atual alcançar a
democratização das TICs. Para alcançar a referida democratização, se faz necessário
compreender como são as diferentes formas de reações da sociedade, sendo necessários
estudos que investiguem as reações individuais e de grupos pertencentes ao conjunto dos
incluídos e excluídos digitalmente, procurando compreender como é o processo de
aprendizagem dos indivíduos mediada pelas TICs e propondo mecanismos que corroborem e
estimulem a efetiva aceitação e uso a proposta de desenvolvimento das competências
informacionais necessárias para o pleno exercício da cidadania.
Acompanhando a história da humanidade, houve períodos onde a informação era
restrita, poucos podiam ter acesso a ela. Atualmente a informação está disponível para todos e
a todo o momento, através das TICs. Porém, vemos que diante de toda essa facilidade em
acessar a informação, grande parcela da sociedade, principalmente em países com grandes
níveis de desigualdades sociais como é o caso do Brasil, uma grande parcela da sociedade tem
dificuldade em acessar essas informações. Tal dificuldade se dá por diversos fatores, entre
eles, o baixo nível de escolaridades da população, pois o Brasil ainda registra números
elevados de pessoas analfabetas e muitas que são consideradas alfabetizadas não conseguem
compreender o que leem ou que escrevem (analfabetismo funcional). Outro fator que dificulta
o acesso e uso das TICs é a falta de motivação ou interesse das pessoas, que algumas vezes
dispõem de oportunidades para aprenderem e a se capacitarem em algo que tenham
3639
dificuldades como, por exemplo, melhorar as habilidades com o computador, mas mesmo
assim muitas não se sentem motivados e permanecem em suas “zona de conforto” sem
superarem a resistência a mudança.
Para tal, faz-se necessário sair da “zona de conforto” e passar a ter atitudes em prol de
desenvolver essas habilidades, sendo necessário romper a dificuldade de mudança de
comportamento, que aqui no Brasil denomina-se popularmente como “síndrome de Gabriela”,
devido a uma telenovela exibida em 1975, onde retratava a vida de uma jovem simples do
sertão, cuja trilha sonora da personagem dizia, “... eu nasci assim, eu sou mesmo assim, vou
ser sempre assim, Gabriela...”. O termo é usado para expressar quando o indivíduo assume
uma postura de que não vai modificar ou adotar determinada atitude, simplesmente porque
não tem nenhum interesse para assumir tal mudança ou postura.
2 SOCIEDADE DA INFORMAÇÃO
O termo sociedade da informação é bastante utilizado para retratar a maneira como a
sociedade atual lida com a informação, sendo possível, então, fazer uma reflexão do que esse
termo representa na contemporaneidade. A expressão “sociedade da informação” é utilizada
atualmente para se referir a “sociedade pós-industrial” e retratar o novo paradigma técnicoeconômico desse último século. A informação se tornou um insumo básico e necessário desta
nova conjuntura social, sendo ampliada sua importância e acesso pelos avanços tecnológicos
na microeletrônica e telecomunicação. Essas mudanças ocorrem em uma velocidade cada vez
mais rápida.
Outra definição para o termo sociedade da informação refere-se à enorme proliferação
da informação, estimulada pelo aproveitamento da microelectrónica e pelas primeiras
manifestações do seu potencial impacto social e econômico. Em contrapartida, o conceito de
sociedade de aprendizagem transporta em si a concepção embrionária do modo de vida
moderno, fortemente recomendado devido à crescente integração das tecnologias de
informação e comunicação e ao receio de que a globalização possa prejudicar a
competitividade. A sociedade do conhecimento distingue-se pela maneira como encara a
mudança estrutural da economia a longo prazo. Segundo esta visão, a produção, divulgação e
utilização do conhecimento irão desempenhar um papel ainda mais importante na criação e
aproveitamento da riqueza (Lindley, 2000, p36).
Conforme Shanon (1949), no livro A teoria matemática da comunicação, trata a
informação como sendo tudo aquilo que reduz a incerteza. Nesta perspectiva, o termo
sociedade da Informação não poderia ser aplicado adequadamente, uma vez que temos uma
3640
quantidade imensurável de dados denominados como informação, mas que, isoladamente, não
têm significado e não produzem compreensão.
Castells (1999) em seu livro intitulado A Sociedade em rede, afirma que a revolução
tecnológica iniciou a partir da Arpanet, surgindo a partir daí uma nova ordem social: a
informacional, em que a informação passou a ter valor de capital, considerando os discursos
sobre a revolução da tecnologia de informação e comunicação como exagerados, proféticos e
ideológicos. No entanto, este mesmo autor considera este evento histórico da mesma
importância da Revolução Industrial do Século XVIII, induzindo um padrão de
descontinuidade nas bases materiais da economia, sociedade e cultura. A tecnologia da
informação é para esta revolução o que as novas fontes de energia foram para as Revoluções
Industriais sucessivas. (CASTELLS, 1999).
Para Toffler (2001, p. 37), a inovação tecnológica não só propõe mudanças em
maquinas, mas alteram também o meio ambiente intelectual do homem (como ele pensa e
encara o mundo), propondo soluções inéditas para problemas filosóficos e até sociais. A
utilização da informação para responder a uma questão, solucionar um problema, tomar uma
decisão, negociar uma posição ou dar sentido a uma situação. Sendo, a informação é fabricada
por indivíduos a partir de sua experiência passada e de acordo com as exigências de
determinada situação na qual a informação deve ser usada. (CHOO, 2003)
Dentro desta mesma linha de pensamento, pode ser entendido que os avanços
tecnológicos e as inovações para disponibilizar a informação não alcançam toda a sociedade,
ficando boa parte da humanidade sem ter acesso a esses recursos tecnológicos sendo alguns
desses motivos: falta de recursos econômicos para adquiri-los, falta de instruções
educacionais para se entender ao que se tem acesso, ou limitações cognitivas.
3 COGNIÇÃO
Por Cognição entende-se um tipo específico de representação dos objetos e fatos ou
qualquer tipo de representação da informação proveniente do meio.
O dicionário de
psicologia Mesquita e Duarte (1996 p. 45) define a cognição como um conceito utilizado para
designar comportamentos, pensamentos, atitudes e crenças, conscientes dos indivíduos.
Para Piaget (1986) existem estruturas inatas do sujeito, que se organizam a partir das
experiências do meio ambiente, resultando os processos perceptivos. Desta forma, a cognição
tem estreita relação e é construída através do meio e todo comportamento é influência do
meio. De acordo com Sternberg (2000) um dos teóricos considerados neopiagetianos, ressalta
3641
a cognição como o processar e coordenar elementos que possibilitam a diferenciação de
informação na determinação de objetivos secundários para atingir uma meta.
Neste cenário, Jones (1988) afirma que a metacognição exerce influência sobre a
motivação, isso se dá, devido ao fato da metacognição possibilitar, o controle e gestão dos
próprios processos cognitivos, dando-lhe a noção da responsabilidade pelo seu desempenho,
gerando assim, confiança nas suas próprias capacidades (Morais & Valente, 1991). Para
Weinert (1987) as metacognições podem ser consideradas cognições de segunda ordem:
pensamentos sobre pensamentos, conhecimentos sobre conhecimentos, reflexões sobre ações.
Livingston (1997 p.4) diferencia a metacognição da cognição como a metacognição sendo o
conhecimento e a cognição sobre um fenômeno cognitivo.
Como podemos observar nas definições de cognição e metacognição, alguns
estudiosos na área afirmam que é difícil, em certo ponto, definir esses campos do
conhecimento e distinguir suas diferenças, podendo ser compreendido como complemento um
do outro. A partir da década de 1970 muitos pesquisadores intensificaram suas pesquisas
sobre aprendizagem e as capacidades cognitivas, bem como, o que tange a cognição no
sentido da memória, leitura e compreensão de texto. (BROWN, 1987)
3.1 Autodeterminação
Taxonomia da motivação humana dividiu-se em três grupos: 1. Sem motivação ou
desmotivado, 2. Motivação extrínseca ( de fora para dentro) este se subdivide em quatro tipos
diferentes: regulação externa( onde a motivação é em troca de alguma recompensa), regulação
introjetada (onde o indivíduo consegue fazer uma avaliação das consequências de agi ou não
de determinada maneira, sendo a decisão influenciada por fatores externos), regulação
identificada(nesse caso a uma interiorização da motivação sendo estimulada por algum
objetivo externo), regulação integrada( há um equilíbrio entre os aspectos comportamentais,
objetivos e valores que tem como objetivo maior a realização pessoal,)
e por fim 3.
Motivação intrínseca, a motivação parte do individuo sem necessitar de um estimulo externo,
existe nesse caso uma satisfação e interesse em realizar determinada atividade ou adquirir
determinado comportamento.
Alguns pesquisadores voltam suas pesquisas para compreender a influencia da
motivação na aprendizagem, essas pesquisas mostram que indivíduos intrinsecamente
motivados, tendem a ter melhores desempenhos nas atividades que realizam e tendem a serem
mais propícios a mudarem de comportamento em prol da realização de um objetivo.
(SIQUEIRA & WECHSLER, 2006).
3642
4 PROCEDIMENTOS METODOLÓGICOS
O presente trabalho pretende desenvolver a metodologia desta pesquisa a partir da
construção de uma base conceitual sobre resistência à mudança de atitude, aprendizagem
social e Limitações digitais, procurando compreender o que a literatura cientifica pode
colaborar com essas reflexões. Realizar grupo focal, a fim de identificar o que motiva os
alunos do programa Luz do Saber na superação da “síndrome de Gabriela”, afim de:
- Identificar quais fatores que influenciam a aceitação dos alunos pelo programa Luz
do Saber, através do modelo TAM, que é indicado para estudar comportamento de
aprendizagem e aceitação de tecnologia.
- Analisar os dados obtidos
- Construir recomendações para a efetivação de mudanças de comportamentos que
desenvolvam capacidades informacionais e promova a efetivação da aprendizagem em
projetos sociais, tais como o Luz do Saber.
REFERÊNCIAS
BELLINI, C.G.P.; GIEBELEN, E.; CASALI, R.R.B. Limitações digitais. Informação &
Sociedade, v. 20, n. 2, 2010, p. 25-35.
BROWN, A. L. Metacognition, executive control, self-regulation, and other more mysterious
mechanisms. In WEINERT, F. E. & KLUWE, R. (Org.). Metacognition, motivation, and
understanding.1987.
CASTTELLS, M., Society in Network. São Paulo, 1999.
CHOO, C. W. A organização do conhecimento: como as organizações usam a informação
para criar significado, construir conhecimento e tomar decisões. São Paulo: Senac, 2003.
JONES, B. F. Text learning strategy instruction: Guidelines from theory and practice. In
WEINSTEIN, C. E.; GOETZ, E. T.; ALEXANDER, P. A. (Org.), Learning and study
strategies: Issues in assessment, instruction, and evaluation. 233-260. N. Y. 1988.
LINDLEY, R. Economias baseadas no conhecimento – o debate europeu sobre o emprego
num novo contexto. In: RODRIGUES, M. J. (Org.). Para uma Europa da Inovação e do
conhecimento – Emprego, reformas econômicas e coesão social. Oeiras: Celta. p. 33-78.
2000
LIVINGSTON, J. A. Metacognition: An Overview, 1997
MESQUITA, R.; DUARTE, F. Dicionário De Psicologia. Ed. Plátano: São Paulo. 213 P,
1996.
3643
MORAIS, M. M.; Valente, M. O. Pensar sobre o pensar: Ensino de estratégias metacognitivas
para recuperação de alunos com dificuldades na compreensão da leitura na disciplina de
língua portuguesa. Revista de Educação, v. 2, n. 1, p. 35-56, 1991.
PIAGET, J. O nascimento da inteligência da criança. Editora Crítica: São Paulo, 1986.
SHANNON, C. E.; WEAVER, W. The Mathematical Theory of Communication. Urbana:
University of Illinois Press. 1949
SIQUEIRA, L. G. G.; WECHSLER, S. M. Motivação para a aprendizagem escolar:
possibilidades de medida. Avaliação Psicológica, n. 5, v. 1, p. 21-3, 2006.
STERNBERG, R. J. Psicologia Cognitiva. M. R. B. Osório, Trad. Porto Alegre: ArtMed,
2000.
TOFFLER, A. A terceira onda, 26. ed. Rio de Janeiro: Record, 2001.
WEINERT, F. E. Metacognition and motivation as determinants of effective learning and
understanding. In WEINERT, F. E.; KLUWE, R. H. (Ed.), Metacognition, Motivation and
Understanding. Hillsdale: LEA, 1987.
3644
A WEB 2.0 COMO CANAL DE COMUNICAÇÃO ENTRE A BIBLIOTECA E OS
USUÁRIOS
THE WEB 2.0 AS COMMUNICATION CHANNEL BETWEEN THE LIBRARY AND USERS
Nivea Camara Rocha de Souza
Ana Paula de Oliveira Villalobos
Resumo: Este artigo objetiva analisar a importância da apropriação das ferramentas da Web
2.0 pelas bibliotecas da cidade de Salvador para divulgação de seus serviços, acervo e
atividades, com vistas a potencializar a comunicação com os usuários, promover o acesso a
informação e atrair novos visitantes. A Web 2.0, também conhecida como Web Social,
viabiliza várias interfaces digitais que podem ser utilizadas pelas bibliotecas como forma de
mediação e interação com os usuários, destacando que todos os tipos de bibliotecas podem
empregar essas ferramentas. Em relação ao objetivo a pesquisa se caracteriza como descritiva,
relativamente ao método trata-se de um estudo de caso, o instrumento de coleta de dados
adotado será o questionário e a abordagem será de natureza quali-quantitativa. Após a análise
dos dados os resultados serão confrontados com o referencial teórico, na perspectiva de
investigar a importância das ferramentas da Web 2.0 como um eficiente canal de informação e
comunicação entre as bibliotecas e os usuários.
Palavras-chave: Web 2.0. Acesso a informação. Biblioteca 2.0. Web Social.
Abstract: This article intended to analyze the importance of ownership of Web 2.0 tools by
libraries in the city of Salvador to advertise their services, assets and activities, with a view to
strengthening the communication with users, promote access to information and attract new
visitors. Web 2.0, also known as Social Web, enables various digital interfaces that can be
used by libraries as a form of mediation and interaction with users, stressing that all types of
libraries can employ these tools. Regarding the objective of research is characterized as
descriptive, concerning the method it is a case study, the data collection instrument will be
adopted in the questionnaire and the approach will be qualitative and quantitative. After data
analysis, the results will be compared with the theoretical framework, the aim of investigating
the importance of Web 2.0 tools as an efficient channel of information and communication
between libraries and users.
Keywords: Web 2.0. Information access. Social media. Library 2.0. Social web.
1 INTRODUÇÃO
Atualmente, é visível o poder da comunicação e divulgação da informação na internet
e como ela fortalece as imagens dos órgãos públicos e empresas. Se esse mecanismo for
utilizado pela biblioteca poderá haver uma resposta positiva por parte dos usuários, os quais
esperam saber o que está acontecendo na sua unidade de pesquisa sem precisar visitar o
espaço físico para obter essas informações. Essas novas tecnologias promovem um avanço
nos canais de mediação, aumentando o alcance da difusão da informação e modificando os
processos de comunicação, rompendo as barreiras de espaço e tempo.
3645
Por meio dessas inovações surgiu a web 2.0, uma ferramenta que propicia um
ambiente colaborativo entre as organizações e seus frequentadores, independente da
localização.
A partir do conceito de biblioteca e web 2.0, a pesquisa objetiva realizar um estudo
acerca da potencialidade da web 2.0 como um recurso utilizado pelas bibliotecas da cidade de
Salvador para divulgação de serviços, acervo e atividades e também uma possibilidade de
melhorar a comunicação, o relacionamento da biblioteca com os usuários e atrair novos
visitantes. Além, especialmente, de promover o acesso a informação.
Já que a missão da biblioteca é disponibilizar o acesso à informação e levar o
conhecimento, as criações de páginas nas redes sociais, blogs e sites multimídias seriam uma
eficiente maneira de levar informações e promover uma maior interação com os usuários e
futuros frequentadores. Apesar desta importância estar sendo discutida, ainda é escasso o
número de bibliotecas em Salvador que utilizam esse recurso.
A pesquisa pretende evidenciar a importância das bibliotecas utilizarem a web 2.0 para
desenvolverem um ambiente informacional mais interativo e colaborativo. Conforme Arroyo
Vázquez e Merlo Vega,
A arquitetura de participação é um conceito fundamental na web 2.0 e
consiste em envolver os usuários e obter sua própria colaboração de modo
que eles, os próprios internautas que vão dar valor ao serviço, criando seus
conteúdos e organizando os mesmos. (2007, p.2, tradução nossa)
As várias ferramentas da web 2.0 se destacam como uma nova via de comunicação e
mediação pela biblioteca com seus frequentadores e futuros visitantes, sua inserção em um
contexto digital e divulgação do trabalho realizado pela unidade. É importante destacar que
todos os tipos de biblioteca podem empregar as ferramentas de web 2.0, não se restringido às
bibliotecas públicas.
Esta investigação é relevante porque comprova a importância do uso dessas
ferramentas de interação pelas bibliotecas de Salvador, destacando as novas ferramentas da
web 2.0 como potencializadoras no acesso a informação, na divulgação do acervo, atividades
e serviços. Pode ser evidenciado também o marketing indireto, desempenhado quando essas
informações ou notícias são compartilhadas pelos internautas nos seus perfis nas redes sociais.
2 SURGIMENTO DA WEB 2.0
O conceito de Web 2.0 surge em 2004 numa conferência promovida por Tim O´Reilly
e origina a idéia de uma plataforma web construída a partir de uma coletividade, um ambiente
3646
de co-participação e interação entre leitor e o desenvolvedor. Um ambiente mais dinâmico e
flexível. Conforme, relatado por Tim O'Reilly,
O conceito de Web 2.0 começou com uma sessão de brainstorming
conferência entre O'Reilly e Internacional MediaLive. Dale Dougherty,
pioneiro web VP e O'Reilly, notou que longe de ter falhas, a web era mais
importante do que nunca, com novas aplicações e sites surgindo com
surpreendente regularidade. Além do mais, as empresas que haviam
sobrevivido à colapso parecia ter algumas coisas em comum. (2007, p.2,
tradução nossa)
A partir do surgimento da “web social” denominada também de web 2.0, os
aplicativos e sites criados tem por objetivo permitir uma maior colaboração e participação da
sociedade na busca e na disseminação da informação. Para Margaix Arnal (2007, p.99,
tradução nossa), “A verdadeira revolução 2.0 é o novo conceito que temos dos usuários, para
que eles interagem uns com os outros e com o pessoal da biblioteca”. Pode ser evidenciado
quanto às ferramentas da Web 2.0 são dinâmicas e possibilitam novas formas de comunicar a
informação.
A utilização dos aplicativos criados com a web 2.0 aumenta os canais de comunicação
que podem ser explorados pelas bibliotecas para informar, divulgando as informações e
novidades da biblioteca; interagir, trocar informações e idéias, e promover, compartilhar
informação para a comunidade a que atende. No entanto, este mecanismo ainda é pouco
explorado no âmbito das bibliotecas. Segundo Margaix Arnal (2007, p.101, tradução nossa)
“Deve-se notar que a maioria dos pioneiros da biblioteca 2.0 executa o seu trabalho em
bibliotecas públicas e são estes que estão aplicando as suas abordagens mais rapidamente e
desenvolvendo o conceito”. Dessa maneira, a utilização das ferramentas da web 2.0 pela
biblioteca é resultante do desenvolvimento de novas tecnologias e, consequentemente, da
evolução Web 1.0 para a Web 2.0, ou Web Social.
3 BIBLIOTECA 2.0
Com os avanços tecnológicos e aumento do número de pessoas que possuem
computador e smartphones se faz necessário a presença das bibliotecas na esfera virtual, para
promover os seus serviços e possibilitar um canal de comunicação com os seus utilizadores.
Conforme Alvin:
A Biblioteca 2.0 é uma atitude que orienta informação para determinados
utilizadores, incorpora novas ferramentas e serviços, e constrói, com os
utilizadores, conteúdos significativos. Com esta filosofia, não se abandonam
os utilizadores habituais, acrescenta-se a possibilidade de mais participação
aos que existem, e faz-se uma aproximação a uma população virtual mais
alargada. Convém reconhecer que as bibliotecas evoluem lentamente e que
será preciso trabalhar com os profissionais (2007, p. 3).
3647
A partir do surgimento dessa nova proposta no âmbito da Ciência da Informação o
conceito de biblioteca se amplia, incorporando novas ferramentas digitais, buscando
disponibilizar informações e uma aproximação com seus usuários no ambiente virtual.
Com o surgimento da Biblioteca 2.0 e a utilização da Web Social como um novo meio
de interação pelos centros de informação, os usuários podem opinar, deixar sugestões e
perguntar no âmbito virtual através do site e páginas nas redes sociais. Essa facilidade no
contato objetiva uma comunicação mais dinâmica e rápida. Cohen (2006, tradução nossa)
afirma que criará sites abertos que permitam aos usuários se juntarem aos bibliotecários para
contribuirem com conteúdo, a fim de melhorar a sua experiência de aprendizagem e prestar
assistência a eles.
De acordo com Vieira et. al (2003) as bibliotecas ao utilizarem as várias ferramentas
da Web 2.0 irão ampliar os meios de mediação com seus usuários e novos visitantes. As
funcionalidades contidas nas ferramentas da Web Social oferecem múltiplos recursos para
ajudar as bibliotecas a interagir e se comunicar com os seus usuários. Lopes (2006) acrescenta
que
As TICs oferecem possibilidades para formas inovadoras de mediação. O
bibliotecário como mediador poderá atuar na orientação de seus respectivos
usos, nas atividades de acesso a mecanismos de busca, na seleção, análise,
síntese de conteúdos de informação, no desenvolvimento de sistemas
especialistas para responder questões de referência, na capacitação através de
instruções bibliográficas, entre outras. (LOPES; SILVA, 2006)
A importância do desenvolvimento dessas novas ferramentas inovadoras de mediação
é proporcionar a concepção de que a biblioteca não é um ambiente estático, mas em constante
crescimento. As unidades de informação estão atentas na busca por aprimorar seus serviços e
canais de comunicação com seus usuários, disponibilizando online informações significativas
e mantendo uma via colaborativa e interativa com seus internautas.
A biblioteca 2.0 é uma comunidade virtual voltada para seus usuários, surge da ligação
dos conceitos existentes entre os termos biblioteca e Web 2.0 (MANESS, 2007) e na visão de
Arroyo Vázquez e Merlo Vega (2007) estas são algumas das ferramentas que poderiam ser
utilizadas pelas bibliotecas 2.0, a exemplo: dos podcasts, os blogs, os espaços wiki, os sítios
web para o compartilhamento de imagens (Instagram / Flickr), de vídeos (YouTube /
Dailymotion), como também a utilização das redes sociais (MySpace / Orkut / Google+ /
Facebook / Twitter) e as ferramentas de bookmark social (Del.icio.us / Pinterest / Tumblr /
Foursquare).
Portanto, conforme elucidado por diversos autores, as bibliotecas ao utilizarem as
ferramentas da web 2.0 ampliam seus meios de mediação com seus frequentadores e novos
3648
visitantes. E para comprovar está eficácia nas bibliotecas de Salvador a seguir será explanada
a metodologia que será utilizada.
4. INSTRUMENTOS METODOLÓGICOS
Trata-se de uma pesquisa que adota o método de estudo de caso, utilizando o
questionário como um instrumento de pesquisa para a coleta de dados. A abordagem adotada
será de natureza quali-quantitativa, por ser considerada a mais adequada para a interpretação
dos dados.
A realidade empírica vai ser confrontada por uma pesquisa sobre quais bibliotecas
utilizam ferramentas da Web 2.0 em Salvador, quais são os resultados obtidos após a criação
deste canal de comunicação e se está havendo êxito no uso desse canal como meio de
mediação e divulgação de informações e quais canais de comunicação estão tendo um maior
número de usuários interagindo e colaborando.
Por fim, os dados serão analisados e confrontados com o referencial teórico e inferidas
as conclusões e dadas às sugestões, afim que as bibliotecas tenham conhecimento dos
benefícios dessas ferramentas inovadoras como meio de interação e divulgação.
5 CONSIDERAÇÕES FINAIS
Este trabalho busca refletir sobre o papel da Web 2.0 como um meio de comunicação
utilizado pelas bibliotecas, tomando como referencia estudiosos da área da Ciência da
Informação, no intuito de comprovar que as ferramentas que compõem a Web Social podem
ser utilizadas em qualquer tipo de biblioteca, não se limitando a biblioteca pública, como tem
sido a práxis
Após a análise do resultado das pesquisas empíricas, o qual revelará quais são as
bibliotecas em Salvador que utilizam as ferramentas da web 2.0 e através de quais interfaces
se concretiza essa interação e quais são os resultados obtidos após a criação deste canal de
comunicação.
A partir deste estudo de cunho inovador, que poderá motivar a criação de páginas nas
redes sociais, blogs e outras ferramentas da web social para aprimorar as possibilidades de
interação e comunicação da biblioteca e seus frequentadores e atuar como um eficiente canal
de mediação.
REFERÊNCIAS
ALVIM, Luísa. Blogues e bibliotecas: construir redes na Web 2.0. Cadernos BAD. Lisboa, n.
1. p. 38-74, 2007.
3649
ARROYO VÁZQUEZ, N; MERLO VEGA, J. A. La biblioteca como usuaria de la web
2.0. In: JORNADAS ESPAÑOLAS DE DOCUMENTACIÓN, 10., 2007, Santiago de
Compostela. Anais... Santiago de Compostela: FESABID, 2007. p. 1-11. Disponível em: <
http://eprints.rclis.org/9523/1/Arroyo%26Merlo_FESABID07.pdf>. Acesso em: 20 set. 2014
COHEN, Laura. A Librarian's 2.0 Manifesto. 2006. Disponível em:
<http://katrinamalone23.blogspot.com.br/2013/01/a-librarians-20-manifesto-from-laura.html
>. Acesso em: 20 jun. 2014.
LOPES, M. I.; SILVA, E. L. As bibliotecas universitárias e a mediação da informação na
comunicação científica. In: SEMINÁRIO NACIONAL DE BIBLIOTECAS
MANESS, J. M. Teoria da Biblioteca 2.0: Web 2.0 e suas implicações para as bibliotecas.
Traduzido por Geysa Flávia Câmara de Lima Nascimento e Gustavo Henrique do Nascimento
Neto. Informação & Sociedade: Estudos, v. 17, n 1, 2007. Disponível
em:<http://periodicos.ufpb.br/ojs2/index.php/ies/article/view/83>. Acesso em: 20 jun. 2014.
MARGAIX ARNAL, Dídac. Conceptos de web 2.0 y biblioteca 2.0: origen, definiciones y
retos para las bibliotecas actuales. In: El profesional de la información. EPI SCP, Barcelona,
Spain , 2007. p. 95-106. Disponível em: < http://eprints.rclis.org/9521/>. Acesso em: 20 jun.
2014.
O’REILLY, Tim. What is Web 2.0? Design patterns and business models for the next
generation of software. 2007. Disponível em: < http://mpra.ub.uni-muenchen.de/4578/1/>.
Acesso em: 20 jun. 2014.
UNIVERSITÁRIAS, 14, 2006, Salvador. Anais... Salvador: UFBA, 2006. CD-ROM.
VIEIRA, David Vernon; BAPTISTA, Sofia Galvão; CUEVAS CERVERO, Aurora. Adoção
da Web 2.0 em bibliotecas de universidades públicas espanholas: perspectivas de interação do
bibliotecário com as redes sociais – relato de pesquisa. Perspectivas em Ciência da
Informação, v. 18, n. 2, p. 167-181, 2013. Disponível em: <http://dx.doi.org/10.1590/S141399362013000200011>. Acesso em: 20 jun. 2014.