规范档2.0:WorldCat身份档

OCLC一直在不遗余力地深入挖掘他们的联合目录宝库——WorldCat中的数据,xISBN、FictionFinder、Audience Level,过一段时间出现一个成果,每令人赞叹。近日,WorldCat Identities的Beta版发布,内容丰富,可称2.0版的规范档。目前只有个人,很快会收录团体,以后还会包括虚拟的人物、著名的动物角色!
开发团队之首Thom Hickey介绍WorldCat Identities时称,WorldCat身份档的灵感来自FictionFinder、现已寿终正寝的RLG开放联合目录RedLightGreen,以及Janifer Gatenby关于以维基补充虚拟国际规范档(VIAF)的建议。

首页是一个简洁的检索框,下面一片由人物姓氏组成的“云”。Thom Hickey说那是根据馆藏(而不是书目)做出来的,很有意思的是,在前一百位中,有三分之一是作曲家。

找了标签最大的贝多芬,点进去看个人页面细节,令人眼睛一亮,不过好象没看到什么维基。
页面分左右两栏,左栏依次是:
规范名称:Beethoven, Ludwig van 1770-1827
概述 Overview:总共有多少作品、所属类别genres、LCSH、身份roles、LCC和DDC(链接到OCLC DeweyBrowser)
出版时段 Publication Timeline:用直方图表示各年代出版量
关于贝多芬收藏最多的作品 Most widely held works about … 有题名(链接到WC)与作者
贝多芬创作的收藏最多的作品 Most widely held works by … 有题名(链接到WC)、作者、版本数、出版年段、语种、收藏馆数,以及简介
读者对象 Audience Level:从儿童0到专业1,贝多芬是0.64
相关名称:与贝多芬有关的人物(链接到其身份档)及身份
有用的链接:LC规范档,维基百科贝多芬词条

右栏依次是:
封面图片:似乎是收藏最多作品的一个封面
其他名称 Alternative Names:相当于规范档中的参见名称
语种 Languages:各语种(链接到WC)及馆藏数,按降序排
封面 Covers:不知道根据什么原则,选了8张封面图片(链接到WC)

Lorcan Dempsey介绍WorldCat Identities时称由于数据是做练习用的,所以有一些矛盾。作为领导,他还提出了更高的要求。

PS:
AADL的Geek,John Blyberg在发布其新版OPAC(SOPAC)前很长时间没怎么写博。今天做播客时(参:见到了传说中的雨僧),老槐笑称keven仍在写博,如果大家发现他忽然不写了,那么可能过一阵就会有新的系统出现了。这话在Thom Hickey身上也应验了,他在博文中提到因全身心投入WorldCat身份档,最近数月没怎么写博。

电子期刊馆藏进联合目录

    OCLC与EBSCOSerials SolutionsTDNet三家电子期刊数据库供应商合作,推出电子期馆藏服务(eSerials Holdings service)。可以在其联合目录WorldCat中,根据ISSN自动设置与维护成员馆的电子期刊馆藏。如果成员馆的供应商不在上述三家之列,也可以将电子期刊订购数据直接提供给OCLC,或者向OCLC推荐自己的供应商。

    只要下一个订单,无需另外付费。与OCLC当初对在Open WorldCat中给出馆藏链接设置很高的门槛作对比,可见OCLC急切地需要得到成员馆的电子期刊订购信息,它集成图书馆馆藏的胃口越来越大了。

    图书馆订购的虚拟馆藏,很可能是朝不保夕的,进联合目录有点不可思议。OCLC的目的是要让WorldCat(及其它包含WorldCat的服务如FirstSearch)成为最终用户查找文献时的依靠——只要目前是你的馆藏,读者可以用就行了;至于将来不是了,反正是自动维护的,把你的馆藏去掉就行了。

    用联合目录代替本馆OPAC,或许在不远的将来会成为现实。

    新发现北卡州大学(NCSU)图书馆信息技术部主任Andrew K. Pace在ALA网站上开了博客Hectic Pace。始于6月,大至一周一篇。以上消息来自他10月4日报道RedLightGreen关门的博文“Endings and Beginnings”。

    NCSU年初推出新版OPAC,Andrew因对传统OPAC有“猪”之喻——“停止给猪抹口红”要“杀了这头猪”之说而名噪一时。Andrew说OCLC的这个服务7月推出。OCLC着力推动都柏林核心,它的网页元数据都用DC。因而可以从源文件了解,该服务的网页2006-03-16建立,最近一次修改2006-09-22。

参见:

OPAC改朝换代由此开始 /posts/2006/0116/829

解读OCLC编目服务的霸王条款 /posts/2005/0226/732

落花流水·红绿灯 & 亿唐 /posts/2006/1023/548

 

附记:

红绿灯(RedLightGreen)月初关张,现在在浏览器地址栏里输入www.redlightgreen.org,会自动转到worldcat.org

第二届OCLC软件竞赛结果

    9月28日,OCLC宣布第二届软件竞赛结果,来自佐治亚州理工学院的Ross Singer获奖,他的项目是一个名为Umlaut的OpenURL链接解析器。竞赛结果公告称,Umlaut将读者引向全文的能力令评委印象深刻,并且比赛所要求的使用OCLC服务也做得相当好。

    Umlaut的工作方式是:

    当用户开始一个查询,Umlaut取其IP地址,查询OCLC解析器登录处(OCLC Resolver Registry)。如果该IP还有其它链接解析器,就把那些服务一并加入用户collection。
    然后基于文档集中该用户的collection,包括增加相关的图书馆目录与链接解析器,目标是使所有可获取的信息能让用户触手可及,包括可访问的的公共图书馆、其它学校或其他图书馆。

分析书目信息(citation)
    如果查找项有标准的标识符(identifier)(目前基于用户群的需求用dois和pmids,但也偶用OCLC号、bibcodes和handles),就从来源中查找该标识(id authority)(crossref, pubmed等),并抓取书目中所有元数据。
    然后把元数据递交请求给SFX(也支持其它链接解析器)、本馆目录(输出至Zebra数据库)及本州联合目录(均由SRU检索)。
    如果有ISBN,使用xISBN获取所有版本并检索。
    在会议录的场合,Umlaut会做一系列的检索(因为取得的书目元数据常常质量不一,不总是明确表示是会议录,因此用一个关键词表[papers, transactions, spie, ieee 等]以确定是否会议录),然后用大致的书目OpenURL上下文集,在本馆OPAC中查找会议及卷册。

检索相关数据库
    如果查找项有ISSN或ISBN,会检索WorldCat.org,如果命中,会显示一个查看链接。
    然后检索亚马逊(如果有ISBN)、Google和雅虎(使用其API)。
    从亚马逊获取所有元数据(介绍、类似图书等)。
    对Google和雅虎,它会在结果中检查“相关网站”白名单(ROAR, arXiv, Citeseer等)或者黑名单(Amazon.*及其它联机书商),然后检查每个链接,看是否出现在我们的代理服务器(EZProxy)。
    一些URL有特别的handlers (arXiv, Citeseer, Citebase, CiteUlike等),Umlaut作不同处理。arXiv, Citeseer和Citebase进入“全文库”(Fulltext holdings bin),CiteUlike作为介绍、标签与目次。其它入“最接近的Web结果”(Closest Web Results)。

显示
    呈现页面时,一个AJAX call返回服务器,服务器处理一系列背后需求。
    如果在Google/雅虎结果中识别出OAI provider,Umlaut会让记录的OAI需求可见(当前仅对Citebase和Citeseer起作用,并根据元数据的质量合并结果)。
    它也获取全文链接(如果有的话),查询Connotea、雅虎的MyWeb及Unalog,看是否有人收藏这些链接。如果有链接,获取标签及共享这些标签的所有记录。它也对CiteULike作同样处理,但把它当作OAI提供者。
    它存储从各处收集来的主题(来自Pubmed的MeSH、SFX主题、来自OPAC的LCSH、标签、亚马逊),作为指示物帮助告知即将开通的推荐服务(当在今秋)。
    Umlaut也能用COinS,有unAPI界面(给出ContextObject及它在JSON或XML中发现的任何数据)。

看演示:
文章:http://umlaut.library.gatech.edu/go/523
图书:http://umlaut.library.gatech.edu/go/522
会议录:http://umlaut.library.gatech.edu/go/524
使用搜索引擎寻找预印本:http://umlaut.library.gatech.edu/go/521
   http://umlaut.library.gatech.edu/go/525

    结果显示页面多数情况有四部分,左上部是书目信息,左中部是全文链接(含电子版、印刷版)、左下部是“最接近的Web结果”,一般也是全文;右栏则是介绍、Web检索结果等相关结果。

    看完获奖作品介绍,感觉Umlaut用了太多的新潮技术与Web服务。很多都是只知其名,不知其义的,居然都集成在一个项目中了!(还有一些术语不知如何翻译)

    从介绍看,佐治亚州理工学院应该购买了SFX,但Ross还是做了大量的工作。这也说明现在买来链接解析器后,确实还要做很多后期开发。要不然,不管有没有合适的检索结果,一骨脑的列出链接。如果链接点击后没有合意的结果,几次一用,用户就没了兴趣,最终链接解析器就只能是摆设了。

相关链接:
第二届OCLC软件竞赛 /posts/2006/0707/855

竞赛结果公告:Ross Singer of Georgia Tech wins Second OCLC Research Software Contest
http://www.oclc.org/research/announcements/2006-09-28.htm

获奖作品介绍:About Ross Singer’s Umlaut
http://www.oclc.org/research/announcements/features/umlaut-about.htm

佐治亚州理工学院图书馆网站的Umlaut主页:
http://umlaut.library.gatech.edu/umlaut/

Umlaut的博客,追踪其进展:
http://umlaut.library.gatech.edu/blog/

同期举行的Talis软件竞赛:TALIS软件竞赛结果 & 竞赛在继续
/posts/2006/0913/860