网上信息抽取技术纵览
网上信息抽取技术纵览
Line Eikvil 原著 (1999.7) 陈鸿标 译 (2003.3)
第一章 导论 |
信息抽取(Information Extraction: IE)是把文本里包含的信息进行结构化处理,变成表格一样的组织形式。输入信息抽取系统的是原始文本,输出的是固定格式的信息点。信息点从各种各样的文档中被抽取出来,然后以统一的形式集成在一起。这就是信息抽取的主要任务。 信息以统一的形式集成在一起的好处是方便检查和比较。例如比较不同的招聘和商品信息。还有一个好处是能对数据作自动化处理。例如用数据挖掘方法发现和解释数据模型。 信息抽取技术并不试图全面理解整篇文档,只是对文档中包含相关信息的部分进行分析。至于哪些信息是相关的,那将由系统设计时定下的领域范围而定。 信息抽取技术对于从大量的文档中抽取需要的特定事实来说是非常有用的。互联网上就存在着这么一个文档库。在网上,同一主题的信息通常分散存放在不同网站上,表现的形式也各不相同。若能将这些信息收集在一起,用结构化形式储存,那将是有益的。 由于网上的信息载体主要是文本,所以,信息抽取技术对于那些把因特网当成是知识来源的人来说是至关重要的。信息抽取系统可以看作是把信息从不同文档中转换成数据库记录的系统。因此,成功的信息抽取系统将把互联网变成巨大的数据库! 信息抽取技术是近十年来发展起来的新领域,遇到许多新的挑战。 本文首先在第二章简要介绍信息抽取技术,第三章介绍网页分装器(wrapper)的开发,第四章介绍已经开发出来的网站信息抽取系统,第五章介绍信息抽取技术的应用范围以及首批已经进入商业运作的商用系统。 |
第二章 信息抽取技术概述 |
信息抽取原来的目标是从自然语言文档中找到特定的信息,是自然语言处理领域特别有用的一个子领域。所开发的信息抽取系统既能处理含有表格信息的结构化文本,又能处理自由式文本(如新闻报道)。IE系统中的关键组成部分是一系列的抽取规则或模式,其作用是确定需要抽取的信息[52]。网上文本信息的大量增加导致这方面的研究得到高度重视。 本章首先介绍信息抽取领域的发展。第2.1.节比较了信息抽取和信息检索的区别;第2.2.节介绍IE的历史。接下来两节解释评价IE系统的指标和常用的两派技术方法。信息抽取技术所处理的文本类型将在第2.5.节中说明。第2.6.节描述信息抽取技术可利用的网页特征。 第2.1.节 IR和IE IR的目的是根用户的查询请求从文档库中找出相关的文档。用户必须从找到的文档中翻阅自己所要的信息。 就其目的而言,IR和IE的不同可表达如下:IR从文档库中检索相关的文档,而IE是从文档中取出相关信息点。这两种技术因此是互补的。若结合起来可以为文本处理提供强大的工具[24]。 IR和IE不单在目的上不同,而且使用的技术路线也不同。部分原因是因为其目的差异,另外还因为它们的发展历史不同。多数IE的研究是从以规则为基础的计算语言学和自然语言处理技术发源的。而IR则更多地受到信息理论、概率理论和统计学的影响[24]。 第2.2.节 IE的历史 自动信息检索已是一个成熟的学科,其历史与文档数据库的历史一样长。但自动信息抽取技术则是近十年来发展起来的。有两个因素对其发展有重要的影响:一是在线和离线文本数量的几何级增加,另一是"消息理解研讨会"(MUC)近十几年来对该领域的关注和推动。 IE的前身是文本理解。人工智能研究者一直致力于建造能把握整篇文档的精确内容的系统。这些系统通常只在很窄的知识领域范围内运行良好,向其他新领域移植的性能却很差[53]。 八十年代以来,美国政府一直支持MUC对信息抽取技术进行评测。各届MUC吸引了许多来自不同学术机构和业界实验室的研究者参加信息抽取系统竞赛。每个参加单位根据预定的知识领域,开发一个信息抽取系统,然后用该系统处理相同的文档库。最后用一个官方的评分系统对结果进行打分。 研讨会的目的是探求IE系统的量化评价体系。在此之前,评价这些系统的方法没有章法可循,测试也通常在训练集上进行。MUC首次进行了大规模的自然语言处理系统的评测。如何评价信息抽取系统由此变成重要的问题,评分标准也随之制定出来。各届研讨会的测试主题各式各样,包括拉丁美洲恐怖主义活动、合资企业、微电子技术和公司管理层的人事更迭。 过去五、六年,IE研究成果丰硕。英语和日语姓名识别的成功率达到了人类专家的水平。通过MUC用现有的技术水平,我们已有能力建造全自动的 IE系统。在有些任务方面的性能达到人类专家的水平[53]。不过自1993年以来,每届最高组别的有些任务,其成绩一直没有提高(但要记住MUC的任务一届比一届复杂)。一个显著的进步是,越来越多的机构可以完成最高组别的任务。这要归公于技术的普及和整合。目前,建造能达到如此高水平的系统需要大量的时间和专业人员。另外,目前大部分的研究都是围绕书面文本,而且只有英语和其他几种主要的语言。 第2.3.节 评价指标在 信息抽取技术的评测起先采用经典的信息检索(IR)评价指标,即回召率(Recall)和查准率(Precision),但稍稍改变了其定义。经修订后的评价指标可以反映IE可能产生的过度概括现象(Over-generation),即数据在输入中不存在,但却可能被系统错误地产生出来(Produced)[24]。 就IE而言,回召率可粗略地被看成是测量被正确抽取的信息的比例(fraction),而抽准率用来测量抽出的信息中有多少是正确的。计算公式如下: P=抽出的正确信息点数/所有抽出的信息点数 R=抽出的正确信息点数/所有正确的信息点数 两者取值在0和1之间,通常存在反比的关系,即P增大会导致R减小,反之亦然。 评价一个系统时,应同时考虑P和R,但同时要比较两个数值,毕竟不能做到一目了然。许多人提出合并两个值的办法。其中包括F值评价方法: 其中 这样用F一个数值就可很看出系统的好坏。 第2.4.节 IE系统设计的两大方法 IE系统设计主要有两大方法:一是知识工程方法(Knowledge Engineering Approach),二是自动训练方法(Automatic Training Approach)。 知识工程方法主要靠手工编制规则使系统能处理特定知识领域的信息抽取问题。这种方法要求编制规则的知识工程师对该知识领域有深入的了解。这样的人才有时找不到,且开发的过程可能非常耗时耗力。 自动训练方法不一定需要如此专业的知识工程师。系统主要通过学习已经标记好的语料库获取规则。任何对该知识领域比较熟悉的人都可以根据事先约定的规范标记语料库。经训练后的系统能处理没有见过的新文本。这种方法要比知识工程方法快,但需要足够数量的训练数据,才能保证其处理质量。 第2.5.节 自由式、结构化和半结构化文本 自由式文本:信息抽取最初的目的是开发实用系统,从自由文本中析取有限的主要信息。例如,从报道恐怖袭击活动的新闻中析取袭击者、所属组织、地点、受害者等信息;又如,从医药研究报告的摘要中提取新产品、制造商、专利等主要信息点。 处理自由文本的IE系统通常使用自然语言处理技巧,其抽取规则主要建立在词或词类间句法关系的基础上。需要经过的处理步骤包括:句法分析、语义标注、专有对象的识别(如人物、公司)和抽取规则。规则可由人工编制,也可从人工标注的语料库中自动学习获得。 自由文本信息点抽取技术的现有水平不可与人的能力同日而语,但还是有用的,不管其抽取规则是人工编制的还是通过机器学习的[52]。虽然自然语言理解是漫长的期待,但是,信息抽取技术确实可行,因为这项技术对其需要搜索的模式类型有很强的限定,而这种限定是有根有据的。 结构化文本:此种文本是一种数据库里的文本信息,或者是根据事先规定的严格格式生成的文本。从这样的文本中抽取信息是非常容易的,准确度也高,通过描述其格式即可达到目的。所用的技巧因而相对简单。 半结构化文本:这是一种界于自由文本和结构化文本之间的数据,通常缺少语法,象电报报文,也没有严格的格式。用自然语言处理技巧对这样的文本并不一定有效,因为这种文本通常连完整的句子都没有。因此,对于半结构化文本不能使用传统的IE技巧,同时,用来处理结构化文本的简单的规则处理方法也不能奏效。 在半结构化文本中确实存在一些结构化的信息,但是,抽取模式通常依赖字符和象html标记那样的分隔标志。句法和语义信息的作用则非常有限。 第2.6.节 网页 因特网提供了一个巨大的信息源。这种信息源往往是半结构化的,虽然中间夹杂着结构化和自由文本。网上的信息还是动态的,包含超链接,以不同的形式出现,而且跨网站和平台,全网共享。因此,因特网是一个特殊的挑战,一直推动着从结构化和半结构化文本中抽取信息的研究向前迈进。 有些研究者把所有网页都归入半结构化文本,但Hsu[31]对网页类型做了颇有用的定义:若能通过识别分隔符或信息点顺序等固定的格式信息即可把"属性-值"正确抽取出来,那么,该网页是结构化的。半结构化的网页则可能包含缺失的属性,或一个属性有多个值,或一个属性有多个变体等例外的情况。若需要用语言学知识才能正确抽取属性,则该网页是非结构化的。 网页的结构化程度总是取决于用户想要抽取的属性是什么。通常,机器产生的网页是非常结构化的,手工编写的则结构化程度差些,当然有很多例外。 传统的NLP技巧对抽取半结构化文本的信息并不是很有用,因其缺少规范的语法结构,而且,NLP方法的处理速度通常比较慢,这对于网上海量信息来说是一个大问题。 网上大部分内容都以属性列表的形式呈现,例如很多可搜索的网页索引。这种外观上的规律性可被利用来抽取信息,避免使用复杂的语言学知识。 网页上的组织结构和超链接特性是需要认真考虑的重要因素。例如,可能需要打开链接的内容才能找到你想要的信息。网页的组织结构不同,抽取规则也不同。 网上数据库查询的结果通常是一系列的包含超级链接的网页。文献[14]把这类网页分成三类:一层一页,即一个页面即包含了所有的查询结果;一层多页,即需要调出多个链接才能获得所有的结果;两层页面,即第一层是列表式条目链接,点击链接后才能看到详细资料。 第2.7.节 小结 IE领域是近十年来新发展起来的研究领域,一是由于"消息理解研讨会"(MUC)的推动,二是由于网上内容的大量增加。 IE对自由文本和结构化文本都能处理。NLP技巧通常用于自由文本,对结构化和半结构化文本并不是太适合。相反,基于分隔符和字符的方法更能奏效。 因特网是包含大量半结构化文本的信息源。网页与传统的文本相比,有许多特点:量大,常更新,变化多,页面的一大半包含结构化的文字块,还可能有超链接。因此,网页为信息抽取研究带来新的挑战。 |
第三章 分装器生成 |
各网站的信息内容互相独立,要收集起来有困难。信息抽取技术就是冲着解决此困难而来的。 因特网上还存在一个被称为"暗藏网"(the hidden web),即那些网上数据库系统。文献[37]估计因特网上80%的内容存在于这种看不见的因特网中。搜索引擎的"网络爬虫"抓不到这些网页。这就意味着需要一种独立的工具从这些网页中收集数据。 从网站中抽取信息的工作通常由一种叫做"分装器"(Wrapper,也译"包装器")的程序完成。以下3.1.和3.2.节将介绍分装器的概念及分其生成(Wrapper Generation, WG)研究的历史。第3.3.节总结了构造分装器的不同方法。手工制造分装器的工作繁重,因此,自动生成的研究变得非常重要。机器学习的方法非常诱人,第3.4.节介绍了归纳式学习的相关技巧。 第3.1.节 分装器 分装器是一个程序,用于从特定的信息源中抽取相关内容,并以特定形式加以表示。在数据库环境下,分装器是软件的组成部分,负责把数据和查询请求从一种模式转换成另外一种模式。在因特网环境下,分装器的目的是把网页中储存的信息用结构化的形式储存起来,以方便进一步的处理。 因特网分装器可接受针对特定信息源的查询请求,并从该信息源中找出相关的网页,然后把需要的信息提取出来返回给用户。它由一系列的抽取规则以及应用这些规则的计算机程序代码组成。通常,一个分装器只能处理一种特定的信息源。从几个不同信息源中抽取信息,需要一系列的分装器程序库。分装器的运行速度应该很快,因为它们要在线处理用户的提问。它还要能应付网络经常变化、运行欠稳定的特点。比如,网络连接失败、文档格式混乱、格式变化等。 建造针对网页的分装器主要有两个好处:一是提高了从某一特定信息源获取相关信息的能力,二是能把不同信息源的信息整合到数据库中,用通用查询语言即可查找信息。 第3.2.节 从IE发展成WG 人们需要能从不同网页资源抽取并整合数据的工具。这种需求造就了分装器生成研究领域的发展。分装器生成(WG)领域独立于传统的IE领域。典型的WG应用系统能从网上数据库返回的查询结果网页中抽取数据。这些网页构成一个被WG业内人称之为"半结构化"的信息源。为了能把这些网页的数据整合在一起,必须把相关的信息从这些网页中抽取出来。因此,分装器实质上是针对某一特定信息源的IE应用系统。 传统的IE系统采用基于句法和语义条件相结合的抽取模式。如前所述,对于半结构化信息源,基于语言知识的模式并不是很管用。典型的WG系统生成的是基于分隔符的抽取模式。由于这类网页均是在一个统一的模板上即时生成的,因此,只要学习了几个样本网页后,系统即能识别分隔符特征串,构成不同的模板区域。 从网页中抽取信息并不容易,要考虑许多问题,例如信息量膨胀的问题、系统灵活性的问题等。 第3.3.节 分装器生成 可用人工或半自动的办法生成分装器。手工生成分装器通常需要编写专用的代码,要花很多时间理解文档的结构并将其转换成程序代码。虽然处理半结构化的网页要容易一些,但并仍然还是比较烦琐而且容易出错。 有一些工具可帮助手工生成分装器。使用的方法之一是利用描述性语法对网页结构进行描述,并且提供工具生成代码。不过,编写语法本身就是一项很艰巨和耗时的工作,而且需要高水平的专家。 手工构造的IE系统不能适应处理对象所属领域的变化。每个领域都要有相应的分装器,维护成本很高。对于网上信息源来说,这些缺点尤为明显,因为网页数量庞大,内容和结构繁杂,而且新的信息源不断增加,旧的信息还会改变,因此,帮助生成自动抽取网页信息的分装器的技术变得非常重要。 半自动化生成分装器的技术得益于上述分装器生成的支持工具。一种方法是使用向导让用户告诉系统那些信息是需要抽取的。通过图形界面,用户即可以通过演示编写程序,标示出需要抽取的区域。这意味着在分装器编码过程中不需要专业知识,而且比手工编码少产生错误。但是,用这种方法也需要对新的站点进行重新的学习,因为这种系统不能自己学习新的网站结构,也不能处理旧网站的结构变化。 全自动分装器的生成利用机器学习的技巧,开发学习算法,设计出从非常简单到相对复杂的分装器。即使是全自动的方法也需要人工专家的少量参与。系统必须通过学习阶段,从例子中归纳出规则。通常,这个过程是由人工指导的。 分装器归纳法是一种自动构造分装器的技术。主要思想是用归纳式学习方法生成抽取规则。用户在一系列的网页中标记出需要抽取的数据,系统在这些例子的基础上归纳出规则。这些规则的精确度如何取决于例子的质量如何。如果能代表那些需要处理的网页,那么,这些例子就是高质量的。 第3.4.节 分装器的归纳学习 用于IE的机器学习方法有很多,如符号化学习法,ILP(归纳逻辑设计法),分装器归纳法,统计法和语法归纳法。在分装器归纳法中,分装器的生成被描述成一种归纳学习问题。 在最高层次,归纳学习法是从一些实例中完成未知目标概念的计算任务,是对现象的一种概括。主要思路是,如果归纳出来的规则能解释观察到的实例,或者在新事例出现时能做出准确的预测,那么,这种归纳是成功的。在分类、知识获取、知识发现等任务中被证明是有用的。 归纳学习法是通过推论来完成的。推论是一种从部分到整体、从个别到一般、从个体到普遍的推理过程。老师提供几个实例给学生,学生则从中归纳出普遍适用的规则。人类的学习是基于实验性的观察过程中的,对于我们来说,提供好的观察事例要比提供明确的完整的规则要容易。总的说来,归纳式学习法是一种建立在假设的基础上的研究方法。 有指导的归纳式学习法可以分为两类:零阶(zero-order)和一阶(first-order)学习法。两者的区别在于其训练数据和所形成的理论的表达方式的不同。 零阶学习法所采用的事例是事先分好类的。每个事例都由对应于固定属性集合的特定值描述。这类系统发展的理论以决策树(Decision Tree)或生成规则(Production Rules)的形式出现,把事例的类和它的属性值联系起来。不幸的是,决策树的学习系统缺少表达能力,因为它们建立在命题逻辑的基础上,不能学习到对象之间的关系(如家族成员的关系)之类的概念。从数据库角度看,他们只能处理"属性-值"这种关系。 关系型一阶学习法可在带有结构信息的例子中进行归纳,例如一阶逻辑谓词和函数,无界限结构体(Unbounded Structures,如列表,树)等。尤其是ILP方法,专门研究从例子中归纳一阶逻辑形式的规则,逻辑编程的学习以及其他关系型知识。 ILP的研究介于机器学习和逻辑编程两种传统研究领域之间。许多其他的机器学习算法均限定于处理有限的基于特征表达的例子和概念,而不能处理复杂的关系型和递归型知识。但ILP借助一阶逻辑的表达能力,可以学习关系和递归概念。ILP还可以学习更丰富的表达式和比决策树更复杂的概念,因此,已应用于解决从包含复杂结构和关系的文档中抽取信息的学习中。 ILP算法采用两种不同的归纳方法:一是自下而上(概括),另一是自上而下(具体化)。自下而上的方法是数据驱动的。先选择几个例子,在此基础上提出一个假设,使之能处理这些例子。然后把这个假设推而广之,使之能处理其余例子。自上而下的方法则先从最普遍的假设开始,通过引入反例,把假设规则不断具体化。总的说来,自上而下算法可以归纳出一大类的逻辑程序,但需要相对多的样例。而自下而上算法有为数不多的例子就行了,但只能归纳出一小类的程序。 目前已经有了几个实验ILP系统,包括有名的FOIL[47]和GOLEM[39]。FOIL由Quinlan于1989年开发,采用自上而下的算法。在一个既有正又有反的事实的训练集中,先找出一个只覆盖正例而不涉及反例的逻辑子句(clause),然后把这个子句覆盖的事实从训练集中删除。如此直到训练集中没有正例为止。GOLEM(Muggleton and Feng 1990)采用贪婪覆盖算法(Greedy Covering Algorithm)。子句的生成是自下而上的,建立在更多具体子句的"最少概括"(least-general)的概括生成上。概括一直进行直到所有的正例都被覆盖而无一个反例被涉及。 第3.5.节 小结 可以预计,网上结构化信息将不断增加。通过查询网上数据库所获得的网页也将不断增加。这些网页是无法让搜索引擎获取的。因此,越来越需要可以把相关信息从这些网页中抽取出来的工具。 分装器是专门从特定信息源中抽取需要的信息并返回结果的程序。对于从不同信息源中整合信息资料是非常有用的。由于这种需求不断增加,分装器生成的研究领域从传统的IE领域中脱颖而出。相比之下,生成分装器所采用的技术比较少依赖句子的全面语法分析和NLP技术。 分装器可由程序员直接编写,或手工指定网站结构再由程序自动生成规则和代码。无论是哪种情况,这个过程都是费时费力的,而且网页的结构经常变化,新网页层出不穷。这样,必须建造新的分装器。为此,网上信息抽取的研究转向了半自动和自动生成分装器的工作上。 分装器归纳法是用机器学习方法自动生成分装器的方法。在归纳法中,分装器的生成被看成是归纳学习的问题,其任务是从一组例子中计算出一般规则,以解释观察到的事实。教师提供例子,学生在例子的基础上作出归纳,推导出规则。 归纳逻辑编程方法处于传统的机器学习领域和逻辑编程之间,使用一阶逻辑规则。得益于一阶逻辑丰富的表达能力,ILP方法可以学习关系型和嵌套概念。这是大多数基于"属性-值"表达方式的机器学习算法所无法达到的。ILP方法为此被应用到学习如何从复杂结构和关系的文档中抽取信息。 |
第四章 分装器生成系统简介 | ||||||||||||||||||||||||||||||||||||||||||||||||||||||||
早期从网站上抽取信息的方法基本上是基于手工操作的。程序员认真研究网站的结构后手工编写代码,开发一个分装器程序,把网页的逻辑特征抽取出来并把他们存入到数据库。TSIMMIS[13,25,28,29]系统和"斯坦福-IBM多信息源管理系统(1995)"是比较早的帮助建造分装器程序的框架系统。TSIMMIS的目标是以一体化的方式获取不同信息源的信息并且保证所获取信息一致性。其重点是开发支持这种包装过程的语言和工具。 对于数据量大,结构动态变化的网站而言,需要一种更为有效的分装器建造方法。一般说来,数据库领域的人把注意力放在错综复杂的信息如何进行整合,分装器则用手工建造。另一方面,AI领域的人则把重点放在机器学习的方法如何能用在网站结构的自动学习上。本章将重点介绍分装器的自动或半自动的生成系统。 分装器及其自动生成的复杂度和难易度将取决于网站结构的层次。第4 .1.节介绍的系统主要是针对结构化程度相对好的网站。这类系统多数是源自分装器生成领域的研究者。第4.2.节介绍了能处理结构缺少规范化的网页。这类系统较多地受到传统的IE领域的影响。 第4.1.节 处理结构化和半结构化网页的系统 本节介绍ShopBot, WIEN, SoftMealy 和STALKER系统。这类系统可以说是属于分装器生成系统,专门用来从网站数据库系统生成的网页。采用分隔符为主的抽取规则,无需用到句法和语义知识,局限于处理比较结构化的数据。 第 |
系统 | 结构化 | 半结构化 | 自由式 | 多槽 | 缺失信息 | 次序变化 |
ShopBot | X | | | | | |
WIEN | X | | | X | | |
SoftMealy | X | X | | | X | X* |
STALKER | X | X | | * | X | X |
RAPIER | X | X | | | X | X |
SRV | X | X | | | X | X |
WHISK | X | X | X | X | X | X* |
第六章 总结和讨论 |
第6.1.节 总结 信息抽取是近十年来新发展起来的领域。MUC等国际研讨会给予高度关注,并提出了评价这类系统的方法,定义了评价指标体系。 信息抽取技术的研究对象包括结构化、半结构化和自由式文档。对于自由式文档,多数采用了自然语言处理的方法,而其他两类文档的处理则多数是基于分隔符的。 网页是信息抽取技术研究的重点之一。通常用分装器从一特定网站上抽取信息。用一系列能处理不同网站的分装器就能将数据统一表示,并获得它们之间的关系。 分装器的建造通常是费事费力的,而且需要专门知识。加上网页动态变化,维护分装器的成本将很高。因此,如何自动构建分装器便成为主要的问题。通常采用的方法包括基于归纳学习的机器学习方法。 有若干研究系统被开发出来。这些系统使用机器学习算法针对网上信息源生成抽取规则。ShopBot,WIEN ,SoftMealy和STALKER生成的分装器以分隔符为基础,能处理结构化程度高的网站。RAPIER,WHISK和SRV能处理结构化程度稍差的信息源。所采用的抽取方法与传统的IE方法一脉相承,而学习算法多用关系学习法。 网站信息抽取和分装器生成技术可在一系列的应用领域内发挥作用。目前只有比价购物方面的商业应用比较成功,而最出色的系统包括Jango,Junglee和MySimon。 第6.2.节 讨论 目前的搜索引擎并不能收集到网上数据库内的信息。根据用户的查询请求,搜索引擎能找到相关的网页,但不能把上面的信息抽取出来。"暗藏网"不断增加,因此有必要开发一些工具把相关信息从网页上抽取并收集起来。 由于网上信息整合越来越重要,虽然网站信息抽取的研究比较新,但将不断发展。机器学习方法的使用仍将成为主流方法,因为处理动态的海量信息需要自动化程度高的技术。在文献[52]中提出,结合不同类型的方法,以开发出适应性强的系统,这应是一个有前途的方向。在文献[36]中,一种混合语言知识和句法特征的方法也被提出来。 本文介绍的系统多数是针对HTML文档的。以后几年XML的使用将被普及。HTML描述的是文档的表现方式,是文档的格式语言。XML则可以告诉你文档的意义,即定义内容而不只是形式。这虽然使分装器的生成工作变得简单,但不能排除其存在的必要性。 将来的挑战是建造灵活和可升级的分装器自动归纳系统,以适应不断增长的动态网络的需要。 |
参考文献 | |
[1] S. Abiteboul. Querying Semistructured Data. Proceedings of the International Conference on Database Theory (ICDT), January 1997. [2] B. Adelberg. NoDoSE - A tool for Semi-Automatically Extracting Semistructured Data from Text Documents. Proceedings ACM SIGMOD International Conference on Management of Data, Seat- tle, June 1998. [3] D. E. Appelt, D. J. Israel. Introduction to Information Extraction Technology. Tutorial for IJCAI-99, [4] N. Ashish, C. A. Knoblock. Semi-automatic Wrapper Generation for Internet Information Sources. Second IFCIS Conference on Cooperative Information Systems (CoopIS), olina, June 1997. [5] N. Ashish, C. A. Knoblock. Wrapper Generation for semistructured Internet Sources. SIGMOD Record, Vol. 26, No. 4, pp. 8--15, December 1997. [6] P. Atzeni, G. Mecca. Cut & Paste. Proceedings of the 16'th ACM SIGACT-SIGMOD-SIGART Symposium on Principles of Database Systems (PODS'97), [7] M. Bauer, D. Dengler. TrIAs - An Architecture for Trainable Information Assistants. Workshop on AI and Information Integration, in conjunction with the 15'th National Conference on Artificial Intelligence (AAAI-98), [8] P. Berka. Intelligent Systems on the Internet. http://lisp.vse.cz/ berka/ai-inet.htm, Laboratory of Intelligent Systems, University of Economics, [9] L. Bright, J. R. Gruser, L. Raschid, M. E. Vidal. A Wrapper Generation Toolkit to Specify and Construct Wrappers for Web Accessible Data Sources (WebSources). Computer Systems Special Issue on Semantics on the WWW, Vol. 14 No. 2, March 1999. [10] S. Brin. Extracting Patterns and Relations from the World Wide Web. International Workshop on the Web and Databases (WebDB'98), [11] M. E. Califf, R. J. Mooney. Relational Learning of Pattern-Match Rules for Information Extraction. Proceedings of the ACL Workshop on Natural Language [12] M. E. Califf. Relational Learning Techniques for Natural Language Information Extraction. Ph.D. thesis, Department of Computer Sciences, 1998. Technical Report AI98-276. [13] S. Chawathe, H. Garcia-Molina, J. Hammer, K. Ireland, Y. Papakonstantinou, J. Ullman, J. Widom. The TSIMMIS Project: Integration of Heterogeneous Information Sources. In Proceedings of IPSJ Conference, pp. 7--18, [14] B. Chidlovskii, U. M. Borghoff, P-Y. Chevalier. Towards Sophisticated Wrapping of Web-based Information Repositories. Proceedings of the 5'th International RIAO Conference, [15] M. Craven, D. DiPasquo, D. Freitag, A. McCallum, T. Mitchell, K. Nigam, S. Slattery. Learning to Extract Symbolic Knowledge from the World Wide Web. Proceedings of the 15'th National Conference on Artificial Intelligence (AAAI-98), [16] M. Craven, S. Slattery, K. Nigam. First-Order Learning for Web Mining. Proceedings of the 10'th European Conference on Machine 1998. [17] R. B. Doorenbos, O. Etzioni, D. S. Weld. A Scalable Comparison-Shopping Agent for the World Wide Web. Technical report UW-CSE- [18] R. B. Doorenbos, O. Etzioni, D. S. Weld. A Scalable Comparison-Shopping Agent for the World-Wide-Web. Proceedings of the first International Conference on Autonomous Agents, February 1997. [19] O. Etzioni Moving up the Information Food Chain: Deploying Softbots on the World Wide Web. AI Magazine, 18(2):11-18, 1997. [20] D. Florescu, A. Levy, A. Mendelzon. Database Techniques for the World Wide Web: A Survey. ACM SIGMOD Record, Vol. 27, No. 3, September 1998. [21] D. Freitag. Information Extraction from HTML: Application of a General Machine Learning Ap- proach. Proceedings of the 15'th National Conference on Artificial Intelligence (AAAI-98), [22] D. Freitag. Machine Learning for Information Extraction in Informal Domains. Ph.D. dissertation, [23] D. Freitag. Multistrategy Learning for Information Extraction. Proceedings of the 15'th International Conference on Machine Learning (ICML-98), [24] R. Gaizauskas, Y. Wilks. Information Extraction: Beyond Document Retrieval. Computational Linguistics and Chinese Language Processing, vol. 3, no. 2, pp. 17--60, August 1998, [25] H. Garcia-Molina, J. Hammer, K. Ireland, Y. Papakonstantinou, J. Ullman, J. Widom. Integrating and Accessing Heterogeneous Information Sources in TSIMMIS. In Proceedings of the AAAI Symposium on Information Gathering, pp. 61--64, Stan- ford, [26] S. Grumbach and G. Mecca. In Search of the Lost Schema. Proceedings of the International Conference on Database Theory (ICDT'99), [27] J-R. Gruser, L. Raschid, M. E. Vidal, L. Bright. Wrapper Generation for Web Accessible Data Source. Proceedings of the 3'rd IFCIS International Conference on Cooperative Information Systems (CoopIS-98), [28] J. Hammer, H. Garcia-Molina, J. Cho, R. Aranha, A. Crespo. Extracting Semistructured Information from Web. Proceedings of the Workshop on Management of Semistructured Data, zona, May 1997. [29] J. Hammer, H. Garcia-Molina, S. Nestorov, R. Yerneni, M. Breunig, V. Vassalos. Template-Based Wrappers in the TSIMMIS System. Proceedings of the 26'th SIGMOD International Conference on Management of Data, [30] C-H. Hsu. Initial Results on Wrapping Semistructured Web Pages with Finite-State Transducers and Contextual Rules. Workshop on AI and Information Integration, in conjunction with the 15'th National Conference on Artificial Intelligence (AAAI-98), [31] C-H. Hsu and M-T Dung. Generating Finite-Sate Transducers for semistructured Data Extraction From the Web. Information systems, Vol 23. No. 8, pp. 521--538, 1998. [32] C. A. Knoblock, S. Minton, J. L. Ambite, N. Ashish, P. J. Modi, I. Muslea, A. G. Philpot, S. Tejada. Modeling Web Sources for Information Integration. Proceedings of the 15'th National Conference on Artificial Intelligence (AAAI-98), [33] N. Kushmerick, D. S. Weld, R. Doorenbos. Wrapper Induction for Information Extraction. 15'th International Joint Conference on Artificial Intelligence (IJCAI-97), August 1997. [34] N. Kushmerick. Wrapper Induction for Information Extraction. Ph.D. Dissertation, 1997. [35] N. Kushmerick. Wrapper induction: Efficiency and expressiveness. Workshop on AI and Information Integration, in conjunction with the 15'th National Conference on Artificial Intelligence (AAAI-98), [36] Kushmerick, N. Gleaning the Web. IEEE Intelligent Systems, 14(2), March/April 1999. [37] S. Lawrence, C.l. Giles. Searching the World Wide Web. Science magazine, v. 280, pp. 98--100, April 1998. [38] A. Y. Levy, A. Rajaraman, J. J. Ordille. Querying Hetereogeneous Information Sources Using Source Descriptions. Proceedings 22'nd VLDB Conference, [39] S. Muggleton, C. Feng. Efficient Induction of Logic Programs. Proceedings of the First Conference on Algorithmic Learning Theory, 1990. [40] Extraction Patterns: From Information Extraction to Wrapper Induction. Information Sciences Institute, [41] Extraction Patterns for Information Extraction Tasks: A Survey. Workshop on Machine Learning for Information Extraction, [42] STALKER: Learning Extraction Rules for Semistructured, Web-based Information Sources. Workshop on AI and Information Integration, in conjunction with the 15'th National Conference on Artificial Intelligence (AAAI-98), [43] Wrapper Induction for Semistructured Web-based Information Sources. Proceedings of the Conference on Automatic Learning and Discovery CONALD-98, [44] A Hierarchical Approach to Wrapper Induction. Third International Conference on Autonomous Agents, (Agents'99), Seattle, May 1999. [45] S. Nestorov, S. Aboteboul, R. Motwani. Inferring Structure in Semistructured Data. Proceedings of the 13'th International Conference on Data Engineering (ICDE'97), [46] STS Prasad, A. Rajaraman. Virtual Database Technology, XML, and the Evolution of the Web. Data Engineering, Vol. 21, No. 2, June 1998. [47] J.R. Quinlan, R. M. Cameron-Jones. FOIL: A Midterm Report. European Conference on Machine Learning, [48] A. Rajaraman. Transforming the Internet into a Database. Workshop on Reuse of Web information, in conjunction with WWW7, Brisbane, April 1998. [49] A. Sahuguet, F. Azavant. WysiWyg Web Wrapper Factory (W http://cheops.cis.upenn.edu/ sahuguet/WAPI/wapi.ps.gz, nia, August 1998. [50] D. Smith, M. Lopez. Information Extraction for Semistructured Documents. Proceedings of the Workshop on Management of Semistructured Data, in conjunction with PODS/SIGMOD, [51] S. Soderland. Learning to Extract Text-based Information from the World Wide Web. Proceedings of the 3'rd International Conference on Knowledge Discovery and Data Mining (KDD), [52] S. Soderland. Learning Information Extraction Rules for Semistructured and Free Text. Machine Learning, 1999. [53] K. Zechner. A Literature Survey on Information Extraction and Text Summarization. Term paper, [54] About mySimon. http://www.mysimon.com/about mysimon/company/backgrounder.anml | |
· | |
· | |
· | |
· | |
· |
没有评论:
发表评论