知识图谱 - 机器之心
文章推薦指數: 80 %
知识图谱本质上是语义网络,是一种基于图的数据结构,由节点(Point)和边(Edge)组成。
在知识图谱里,每个节点表示现实世界中存在的“实体”,每条边为实体与实体之间 ...
AutoByte专注未来出行及智能汽车科技微信扫一扫获取更多资讯ScienceAI关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展微信扫一扫获取更多资讯知识图谱知识图谱本质上是语义网络,是一种基于图的数据结构,由节点(Point)和边(Edge)组成。
在知识图谱里,每个节点表示现实世界中存在的“实体”,每条边为实体与实体之间的“关系”。
知识图谱是关系的最有效的表示方式。
通俗地讲,知识图谱就是把所有不同种类的信息(HeterogeneousInformation)连接在一起而得到的一个关系网络。
知识图谱提供了从“关系”的角度去分析问题的能力。
知识图谱这个概念最早由Google提出,主要是用来优化现有的搜索引擎。
不同于基于关键词搜索的传统搜索引擎,知识图谱可用来更好地查询复杂的关联信息,从语义层面理解用户意图,改进搜索质量。
比如在Google的搜索框里输入BillGates的时候,搜索结果页面的右侧还会出现BillGates相关的信息比如出生年月,家庭情况等等。
来源:机器之心简介“知识图谱(KnowledgeGraph)”的概念由Google公司在2012年提出,是指其用于提升搜索引擎性能的知识库。
知识图谱的出现是人工智能对知识需求所导致的必然结果,但其发展又得益于很多其他的研究领域,涉及专家系统、语言学、语义网、数据库,以及信息抽取等众多领域,是交叉融合的产物而非一脉相承。
下图展示的是多领域共同促进知识图谱发展的关系图。
[描述来源:机器之心;URL:https://www.jiqizhixin.com/articles/2017-11-03-24]知识图谱又称为科学知识图谱,在图书情报界称为知识域可视化或知识领域映射地图,是显示知识发展进程与结构关系的一系列各种不同的图形,用可视化技术描述知识资源及其载体,挖掘、分析、构建、绘制和显示知识及它们之间的相互联系。
通过将应用数学、图形学、信息可视化技术、信息科学等学科的理论与方法与计量学引文分析、共现分析等方法结合,并利用可视化的图谱形象地展示学科的核心结构、发展历史、前沿领域以及整体知识架构达到多学科融合目的的现代理论。
为学科研究提供切实的、有价值的参考。
[描述来源:百度百科;URL:https://baike.baidu.com/item/%E7%9F%A5%E8%AF%86%E5%9B%BE%E8%B0%B1/8120012?fr=aladdin]例子:2012年5月,谷歌开始在美国的搜索引擎中添加了知识图谱表框,并在年底前拓展到国际范围。
比如用谷歌搜索ThomasJefferson时,在搜索结果页显示的知识图谱如下图所示(此为2015年1月搜索的结果)。
[描述来源:wikipedia;URL:https://en.wikipedia.org/wiki/Knowledge_Graph]发展历史描述知识图谱的早期发展早在上个世纪70年代,专家系统(ExpertSystems)作为人工智能的重要分支,是指利用知识和推理过程来解决那些借助人类专家知识才能得已解决的问题的计算机程序。
八十年代,专家系统的发展激增,日本的五代机项目就是在这期间开始的,专家系统是其核心部分。
专家系统一般由两部分组成:知识库与推理引擎。
人类专家提供知识,再将这种显式的知识映射并存储到知识库中用来推理。
Cyc是这一期间较为出色的项目,由DouglasLenat在1984年设立,旨在收集生活中常识知识并将其编码集成到一个全面的本体知识库。
Cyc知识库中的知识使用专门设计的CycL进行表示。
同其他专家系统一样,Cyc不仅包括知识,而且提供了非常多的推理引擎,支持演绎推理和归纳推理。
目前Cyc知识库涉及50万条概念的500万条常识知识。
OpenCyc是其开放出来免费供大众使用的部分知识,包括24万条概念的约240万条常识知识。
对词汇的理解是解读自然语言的关键,语言学家所创造的词典为人类而非机器的阅读提供了便利,虽然有电子词典的存在,但机器仍无法很好的从中获取词汇含义。
1985年,普林斯顿大学认识科学实验室在心理学教授乔治·A·米勒的指导下开始建立和维护名为WordNet的英语字典,旨在为词典信息和现代计算提供更加有效的结合,为计算机程序提供可读性较强的在线词汇数据库。
在WordNet中,名词、动词、形容词以及副词被按照认知上的同义词分组,称为synsets,每一个synset表征一个确定的概念。
synset之间通过概念语义以及词汇关系链接。
在汉语中,类似的典型代表有《同义词词林》及其扩展版、知网(HowNet)等,都是从语言学的角度,以概念为最基本的语义单元构建起来的可以被计算机处理的汉语词典。
这些早期的知识图谱都是利用相关领域专家进行人工构建,具有很高的准确率和利用价值,但是其构建过程耗时耗力而且存在覆盖性较低的问题。
链接数据与基于百科知识的知识图谱构建1989年万维网的出现,为知识的获取提供了极大的方便,1998年,万维网之父蒂姆·伯纳斯·李再次提出语义网(SemanticWeb),其初衷是让机器也同人类一样可以很好地获取并使用知识。
不同于人工智能中训练机器使之拥有和人类一样的认知能力,语义网直接向机器提供可直接用于程序处理的知识表示。
但语义网是一个较为宏观的设想并且其设计模型是“自顶向下”的,导致其很难落地,学者们逐渐将焦点转向数据本身。
2001年,一个名为维基百科(Wikipedia)的全球性多语言百科全书协作计划开启,其宗旨是为全人类提供自由的百科全书,在短短几年的时间里利用全球用户的协作完成数十万词条(至今拥有上百万词条)知识。
维基百科的出现推动了很多基于维基百科的结构化知识的知识库的构建,DBpedia、Yago等都属于这一类知识库。
2006年,伯纳斯·李提出链接数据(LinkedData)的概念,鼓励大家将数据公开并遵循一定的原则(2006年提出4条原则,2009年精简为3条原则)将其发布在互联网中,链接数据的宗旨是希望数据不仅仅发布于语义网中,而需要建立起数据之间的链接从而形成一张巨大的链接数据网。
其中,最具代表性的当属2007年开始运行的DBpedia项目,是目前已知的第一个大规模开放域链接数据。
DBpdia项目最初是由柏林自由大学和莱比锡大学的学者发起的,其初衷是缓解语义网当时面临的窘境,第一份公开数据集在2007年时发布,通过自由授权的方式允许他人使用。
莱比锡大学的学者认为在大规模网络信息的环境下传统“自上而下”地在数据之前设计本体是不切实际的,数据及其元数据应当随着信息的增加而不断完善。
数据的增加和完善可以通过社区成员合作的方式进行,但这种方式涉及数据的一致性、不确定性,以及隐式知识的统一表示等诸多问题。
莱比锡大学的学者等人认为探寻这些问题最首要并高效的方式就是提供一个内容丰富的多元数据语料,有了这样的语料便可以极大推动诸如知识推理、数据的不确定管理技术,以及开发面向语义网的运营系统。
朝着链接数据的构想,DBpedia知识库利用语义网技术,如资源描述框架(RDF),与众多知识库(如WordNet、Cyc等)建立链接关系,构建了一个规模巨大的链接数据网络。
DBpedia主要通过社区成员来定义和撰写准确的抽取模版,从维基百科中抽取结构化信息(如,infobox)构建大规模知识库,另外本体(即知识库的元数据、schema)的构建也是通过社区成员合作完成的。
由于维基百科是社区撰写,其知识表达难免有不一致的情况,DBpedia利用mapping技术与抽取模版来实现知识描述的统一与一致性。
另外,为了实现知识的更新与扩增,DBpedia开发DBpediaLive来保持与维基百科的同步。
在2016年发行的版本中,DBpedia拥有超过6百万实体及其数十亿事实知识,其中人工构建的本体库包含760种类别信息。
同时,DBpedia拥有大量的跨语言知识,共拥有除英语外的66亿其他语言事实知识。
Yago是由德国马普研究所于2007年开始的项目,针对当时的应用仅使用单一源背景知识的情况,建立了一个高质量、高覆盖的多源背景知识的知识库。
前面介绍的专家构建的WordNet拥有极高的准确率的本体知识,但知识覆盖度仅限于一些常见的概念或实体;相比之下,维基百科蕴含丰富的实体知识,但维基百科多提供的概念的层次结构类似标签结构并不精确,直接用于本体构建并不适合。
Yago的主要思路是将WordNet与维基百科二者的知识结合,即利用WordNet的本体知识补充维基百科中实体的上位词知识,从而获取大规模高质量、高覆盖的知识库。
截至目前,Yago拥有超过1千万实体的1.2亿条事实知识,同时近些年也构建起了与其他知识库的链接关系。
2007年,Freebase开始构建,类似维基百科,其内容主要来自其社区成员的贡献,但与维基百科最大的不同之处在于Freebase中都是结构化的知识,在维基百科中人们编辑的是文章,而在Freebase中编辑的是知识。
在Freebase中,用户是其主要核心,除了对实体的编辑,用户也参与本体库的构建、知识的校对,以及与其他知识库的链接工作。
除人工输入知识,Freebase也主动导入知识,如维基百科的结构化知识。
Freebase拥有大约2千万实体,目前被Google公司收购,Freebase的API服务已经关闭但仍提供数据的下载。
2012年,考虑到维基百科中大部分的知识都是非结构组织起来的,带来诸多问题(如:无法对知识进行有效的搜索与分析,进而知识无法得到很好的重用,甚至存在知识的不一致性的现象),维基媒体基金会推出Wikidata项目,一个类似于Freebase的大规模社区成员合作知识库,旨在用一种全新的方式管理知识以克服以上的存在于维基百科中的问题。
以上所介绍的知识图谱都是基于英文语言的,即使是多语言知识图谱也是以英文为主语言,其他语言知识是用过跨语言知识(如,语言间链接(ILLs)、三元组对齐(TWA))链接得到。
近些年,国内推出了大量以中文为主语言的知识图谱,它们主要都是基于百度百科和维基百科的结构化信息构建起来的。
如上海交通大学的zhishi.me、清华大学的XLore、复旦大学的CN-pedia。
2017年,由国内多所高校发起cnSchema.org项目,旨在利用社区力量维护开放域知识图谱的Schema标准。
基于自由文本的开放域知识图谱构建上述介绍的知识图谱的构建方式包括人工编辑和自动抽取,但自动抽取方法主要是基于在线百科中结构化信息而忽略了非结构化文本,而互联网中大部分的信息恰恰是以非结构化的自由文本形式呈现。
与链接数据发展的同期,很多基于信息抽取技术的知识获取方法被提出,用以构建基于自由文本的开放域知识图谱。
2007年,华盛顿大学Banko等人率先提出开放域信息抽取(OIE),直接从大规模自由文本中直接抽取实体关系三元组,即头实体、关系指示词,以及尾实体三部分,类似于语义网中RDF规范的SPO结构。
在OIE提出之前,也有很多面向自由文本的信息抽取被提出,但这些方法主要的思路都是为每个目标关系训练相应的抽取器。
这类传统的信息抽取方法在面对互联网文本中海量的关系类别时无法高效工作,即为每个目标关系训练抽取器时不现实的,更为严重的是很多情况下面对海量的网络文本我们无法事先明确关系的类型。
OIE通过直接识别关系词组(relationphrases)也称关系指示词,即显式表证实体关系的词组,来抽取实体关系。
基于OIE的指导思想,华盛顿大学陆续推出TextRunner、Reverb、OLLIE等基于自由文本的开放域三元组抽取系统;以及卡耐基梅隆大学的NELL系统、德国马普研究中心的PATTY等。
这些系统有的需要自动构造标注的训练语料,进而从中提取关系模版或训练分类器;有的则依据语法或句法特征直接从分析结果中抽取关系三元组。
Reverb针对之前的OIE系统中存在的两个问题:不连贯抽取与信息缺失抽取,提出句法约束:对于多词语关系词组,必须以动词开头、以介词结束,并且是由句子中毗邻的单词组成。
该约束可以有效缓解以上两个问题造成的抽取失败。
进一步,为了避免由句法约束带来的冗长的并且过于明确的关系指示词,Reverb引入了启发式的词法约束。
总的来说,Reverb提出了两个简单却高效的约束,在面向英文自由文本的开放域知识抽取中取得了不错的效果,很具启发意义。
never-endinglearning被定义为是一种不同于传统的机器学习方式,通过不断地阅读获取知识,并不断提升学习知识的能力以及利用所学知识进行推理等逻辑思维。
NELL就是一种这样的智能体,其任务是学习如何阅读网页以获取知识。
自动构建的开放域中文实体知识图谱上述所介绍的OIE系统大多专注于对开放域实体关系三元组的抽取,但忽略了对于知识图谱不可或缺的同时也是至关重要的本体库的构建,即知识图谱元数据或称为Schema的构建,是为三元组赋以语义的关键。
2014年,由哈尔滨工业大学社会计算与信息检索研究中心发起的《大词林》项目,面向包括自由文本的多信息源对实体的类别信息进行自动抽取并层次化,进而实现对实体上下位关系体系的自动构建,而上下位关系体系正是本体库的核心组成之一。
[描述来源:机器之心;URL:https://www.jiqizhixin.com/articles/2017-11-03-24]主要事件年份事件相关论文/Reference1985DouglasLenat设立CycLenat,D.B.,Prakash,M.,&Shepherd,M.(1985).CYC:Usingcommonsenseknowledgetoovercomebrittlenessandknowledgeacquisitionbottlenecks.AImagazine,6(4),65.2007DBpedia项目开始运行,Auer,S.,Bizer,C.,Kobilarov,G.,Lehmann,J.,Cyganiak,R.,&Ives,Z.(2007).Dbpedia:Anucleusforawebofopendata.InThesemanticweb(pp.722-735).Springer,Berlin,Heidelberg.2007Freebase开始构建Bollacker,K.,Cook,R.,&Tufts,P.(2007,July).Freebase:Ashareddatabaseofstructuredgeneralhumanknowledge.InAAAI(Vol.7,pp.1962-1963).2015卡耐基梅隆大学提出NELL系统Mitchell,T.M.,Cohen,W.W.,HruschkaJr,E.R.,Talukdar,P.P.,Betteridge,J.,Carlson,A.,...&Lao,N.(2015,January).NeverEndingLearning.InAAAI(pp.2302-2310).发展分析瓶颈知识图谱的发展还处于初级阶段,在知识库的自动扩展,异构知识处理,推理规则学习,跨语言检索等方面还面临着众多挑战。
未来发展方向随着互联网中实体词的增加,知识图库将不断扩充其数据规模并加入实体间关系、实体属性等网状关系结构。
Contributor:YueqinLi简介返回顶部
延伸文章資訊
- 1臺灣AI知識圖譜大躍進-資策會「III知識圖譜標記工具服務」上線
人工智慧(AI)發展快速,已從聽、說、看等感知智能邁向認知領域,如何讓機器懂得邏輯推理的方法,找到最接近的答案,知識圖譜(Knowledge Graph)即 ...
- 2知識圖譜- 維基百科,自由的百科全書
- 3最新AI技術:知識圖譜集技術概念大成 - 博客來
內容簡介. 搜尋引擎、維基百科,龐大系統的建立,全部靠著系統化的人工智慧技術,而知識圖譜(Knowledge Graph, KG)就是這個技術的佼佼者。知識圖譜是一種大規模語義網 ...
- 4知识图谱 - 机器之心
知识图谱本质上是语义网络,是一种基于图的数据结构,由节点(Point)和边(Edge)组成。在知识图谱里,每个节点表示现实世界中存在的“实体”,每条边为实体与实体之间 ...
- 5知識圖譜: 數據挖礦的探照燈 - 鼎捷软件
知識圖譜(KG, Kowledge Graph)於2012年由Google Amit Singhal提出,是一種用圖模型(Graph) 來描述真實世界萬物之間的關係的技術方法。Google 運用...