课题研究:重大研究计划“视听觉信息的认知计算”2009年度项目指南

重大研究计划“视听觉信息的认知计算”2009年度项目指南

 
  与人类视听觉感知密切相关的图像、语音和文本(语言)信息在社会、经济和国家安全等领域中扮演着重要角色,并在今后一段时间内仍将迅猛增长。这类信息可被人类直接感知和理解,也可用计算机进行处理,但计算机的处理能力远逊于人类且处理效率远不能满足当今社会的发展需求。如何借鉴人类的认知机理和相关数学的最新研究成果,建立新的计算模型和方法,从而大幅度提高计算机对这类信息的理解能力与处理效率,不仅可有力推动信息科学的快速发展,也将为国民经济和社会发展做出重大贡献。

  一、科学目标

  本重大研究计划的总体科学目标是:围绕国家重大需求,充分发挥信息科学、生命科学和数理科学的交叉优势,从人类的视听觉认知机理出发,研究并构建新的计算模型与计算方法,提高计算机对非结构化视听觉感知信息的理解能力和海量异构信息的处理效率,克服图像、语音和文本(语言)信息处理所面临的瓶颈困难,为确保国家安全与公共安全、推动信息服务及相关产业发展以及提高国民生活和健康水平做出重要贡献。具体表现为:在视听觉信息处理的基础理论研究方面取得重要进展;在视听觉信息协同计算、自然语言(汉语)理解以及与视听觉认知相关的脑―机接口等三项关键技术方面取得重大突破;集成上述相关研究成果,研制具有自然环境感知与智能行为决策能力的无人驾驶车辆验证平台,主要性能指标达到世界先进水平,从而提升我国在视听觉信息处理领域的整体研究实力,培养具有国际影响力的优秀人才与团队,为国家安全和社会发展提供相关研究环境与技术支撑。

  二、核心科学问题

  本重大研究计划将围绕“感知特征提取、表达与整合”、“感知数据的机器学习与理解”和“多模态信息协同计算”等核心科学问题,组织并实施如下四个主要方面的研究工作。

  (一)图像与视觉信息计算。

  主要研究图像与视觉信息计算的认知机理,视觉基本特征的提取与选择,物体识别与图像内容理解,复杂场景下运动目标的行为分析等。提出若干图像与视觉信息的高效计算模型,取得国际公认的原创性研究成果(在Nature, Science, IEEE Trans. PAMI等刊物上发表高水平论文),培养具有国际影响力的优秀人才与研究团队。

  (二)语音与听觉信息计算。

  主要研究听觉感知机理与语音场景分析,自然环境下的语音识别与高表现力的语音合成,口语对话分析与理解等。取得在国际上有影响的原创性研究成果,提出若干语音与听觉信息的有效计算模型,在本领域国际权威刊物上发表高水平论文,培养具有国际影响力的优秀人才与研究团队。

  (三)自然语言(汉语)理解。

  主要研究语言加工的认知机理,语言知识建模和语义计算模型,面向网络的汉语适度理解模型和系列分析工具,支持自然环境下口语对话分析、识别与理解的关键技术等。在国内已有相关成果的基础上,统筹构建大规模高标准汉语语义知识库。将上述研究成果应用到语言(汉语)信息处理典型系统中,显著提高对自然语言(句子、段落、篇章)的理解能力,并在网络信息检索、过滤和知识获取方面得到验证。

  (四)多模态信息的协同计算与脑—机接口。

  主要研究多模态感知信息协同的认知机理与计算模型,基于视听觉信息融合的模式识别与环境交互方法,跨模态视频信息检索与网络敏感信息过滤技术等。大幅度提高跨模态视频信息检索的查准率,显著提升本领域整体研究实力。

  研究与视听觉认知相关的脑信号提取、脑区定位与脑功能网络分析方法和技术,脑—机交互中的信号传输、处理与控制技术,与视听觉认知相关的脑—机接口典型应用。在改善残疾人生活质量和功能康复等方面得到验证或应用,为延伸和提高人类行为控制能力提供新技术。

  三、关键技术与集成验证平台

  在上述研究工作的基础上,本重大研究计划进一步开展与视听觉信息处理相关的关键技术和集成验证平台研究。

  (一)视听觉信息协同计算的关键技术。

  研究机器视听觉信息的协同计算模型及系统实现技术,基于视听觉信息融合的模式识别技术与验证系统,跨模态视频信息检索与网络敏感信息过滤技术及应用。基于多模态协同计算模型的网络视频信息搜索的查准率比同期国外最好水平高5%—10%,并在网络信息安全与服务等领域得到验证。

  (二)自然语言(汉语)理解关键技术。

  研究汉语通用词汇的规范化语义知识库及其构建技术,面向网络的汉语适度理解模型及系列分析工具的实现技术,支持自然环境下口语对话分析、识别与理解的关键技术。在国内现有相关成果的基础上,统筹构建汉语语义知识库,汉语通用词汇规模不小于5万词,带有语义标注的汉语平衡语料库规模不小于1千万字。将研究成果应用到网络环境下的汉语处理系统中,信息检索与知识获取的准确率比现有最好技术明显提高。

  (三)与视听觉认知相关的脑―机接口关键技术。

  研究与视听觉认知相关的脑信号提取、脑区定位与脑功能网络分析技术,脑—机交互中的信号传输、处理、控制技术及系统实现,与视听觉认知相关的脑—机接口典型应用。所提无创脑―机接口信息提取与分析等技术处于同期国际领先水平,在改善残疾人生活质量和功能康复等方面得到验证或应用。

  (四)无人驾驶车辆集成验证平台。

  集成上述基础理论与关键技术的相关研究成果,将传统视觉计算模型与新的视觉认知模型相结合,实现环境感知与建模方法新突破;实现多传感器跨模态跨尺度信息融合,生成高质量三维场景认知地图,构建高性能智能车辆无人驾驶验证平台;提供新的基于人—车—路状态综合分析的智能辅助安全驾驶关键技术;在国防、智能辅助安全驾驶等相关领域得到验证或应用并产生重要影响。

  四、2009年度拟资助的研究项目

  本重大研究计划主要以“培育项目”、“重点支持项目”和“集成项目”的形式予以资助,三类项目在资助强度和实现目标上有所不同。对有较好的创新学术思路和研究价值,但尚需进一步探索研究的申请项目,将以“培育项目”方式予以资助;对有很好的创新学术思想和研究价值,有良好的研究基础和成果积累,且对研究计划总体目标有较大贡献的申请项目,将以“重点支持项目”的方式予以资助;对实现研究计划总体目标有决定作用的研究方向,将以更大支持强度的“集成项目”方式予以资助。根据项目执行的年度进展情况或考察结果,本重大研究计划将适度调整获准项目的资助经费(中止课题或追加经费)。2009年度拟资助如下领域的“重点支持项目”及与其相关的“培育项目”。

  (一)多模态信息协同计算方面。

  1.“重点支持项目”的研究方向:面向互联网的跨媒体挖掘与搜索引擎

  融合自然语言理解、图像与视频分析及跨媒体数据挖掘等多领域交叉新方法,研究有效的网络文本、图像与视频内容挖掘方法和有效的网页分析技术,构建精度高、速度快和鲁棒性强的垂直搜索算法,研发面向特定用户的互联网跨媒体搜索引擎。

  考核目标:可实现准实时的互联网跨媒体内容挖掘、自动摘要与搜索,比现有最好技术具有明显优势。对该部分研究内容,申请书应给出具体考核指标。

  2.“培育项目”的研究方向:

  (1)文本、图像与语音感知信息交互的选择性注意机理、语义特征提取;

  (2)面向网络文本、图像与内容挖掘(视听觉信息)的高效网页分析与索引技术;

  (3)可视媒体的模式分类与不变性特征提取(含文本图像自动分离)。

  (二)视听觉信息处理方面。

  1.“重点支持项目”的研究方向一:无人车辆驾驶多视觉信息处理的数学建模方法

  鼓励数学家与信息科研人员相结合,根据人类驾驶的认知机理和驾驶环境的视频图像特点,研究面向无人车辆驾驶的多视觉(不同视场,含不同方位的视场)信息处理的数学建模方法,提出相应的视觉计算模型并能应用于复杂路况环境下的无人车辆驾驶系统。

  2.“重点支持项目”的研究方向二:多人多方对话中的语音分离、内容分析与理解

  研究特定场合与多人多方对话情况下的语音分离、内容分析和理解,包括说话人跟踪、多说话人的话音分离、说话者识别、语音识别和内容理解等。

  考核目标:特定领域下的语音识别准确率和理解准确率不低于现有最好技术,建立能支持离在线多人多方交谈的语音识别原型系统。申请书应给出具体考核指标。

  3.“培育项目”的研究方向:

  (1)基于认知的视觉模式表达与光流场计算模型及高效算法;

  (2)面向无人驾驶的高质量三维地图生成的空间几何方法及实现技术;

  (3)说话人语音特征的模式区别与分类器泛化;

  (4)复杂声音环境(如驾驶环境)中说话人语音信号的提取、分离与识别。

  (三)自然语言(汉语)理解方面。

  1.本年度暂不设立“重点支持项目”研究方向。

  2.“培育项目”的研究方向:

  (1)汉语语言理解的认知机理及相关心理学方法;

  (2)适于句子和篇章的汉语语义计算模型;

  (3)语义计算与理解的资源共享与测评方法。

  (四)脑—机接口方面。

  1.本年度暂不设立“重点支持项目”研究方向。

  2.“培育项目”的研究方向:

  (1)面向任务的高速低误码率脑波特征提取新方法;

  (2)基于脑—机接口的车辆导航与控制技术。

  (五)驾驶行为的认知机理和神经表达方面。

  1.本年度暂不设立“重点支持项目”研究方向。

  2.“培育项目”的研究方向:

  (1)面向驾驶的视觉选择性注意及与动作的相互关系;

  (2)眼动和视觉注意的认知机理与主动视觉;

  (3)驾驶行为的知觉学习;

  (4)驾驶员的行为心理学与认知结构模型。

  (六)复杂环境下车辆无人驾驶与辅助安全技术方面。

  1.“重点支持项目”的研究方向一:无人驾驶车辆的关键技术与系统平台

  考核目标:在遵守交通法规的前提下,实现面向城市道路的自主驾驶。要求车辆能够安全并入及驶出多车道交通场景,具有保持车道、换道和超车的能力,行驶里程约5公里;在部分路段中能够通过一连串平行停放的车辆和路障,且能行驶到位置指定的停车点。测试环境:测试道路车辆较为密集,有多个十字路口,并能对障碍物进行识别,可重新选择行驶路径。

  上述考核目标是指该重大研究计划对该集成验证平台的最终考核目标,申请2009年度“重点支持项目”的单位可就上述考核目标进行分解,提出阶段性实现目标。

  2.“重点支持项目”的研究方向二:无人车辆驾驶的测试环境设计与评估方法

  考核目标:建立典型测试环境(实验室或试验场)和驾驶性能评估标准,能满足无人车辆驾驶的实际测试与评估。

  3.“培育项目”的研究方向:

  (1)基于解译图的无人驾驶场景描述方法与关键技术;

  (2)恶劣气象和路况条件下的车辆辅助安全驾驶关键技术。

  五、遴选项目的基本原则

  为确保实现总体目标,本重大研究计划鼓励:

  (一)具有原始创新思路和独具特色的探索性研究;

  (二)与总体目标紧密相关的关键技术研究;

  (三)生命、数理和信息等学科的交叉合作研究;

  (四)吸收海外优秀科学家参与研究。

  六、申请书撰写注意事项

  (一)申请人在填报申请书前,应当认真阅读本指南。申请书的研究内容和研究目标须与本重大研究计划密切相关。不符合项目指南的申请将不予受理。

  (二)根据当年度项目指南公布的拟资助研究方向,申请人可自行确定项目名称、科学目标、研究内容、技术路线和相应的研究经费。

  (三)申请书中的资助类别选择“重大研究计划”,亚类说明选择“培育项目”或“重点支持项目”,附注说明均须选择“视听觉信息的认知计算”。根据申请的具体研究内容选择相应的申请代码。

  (四)2009年度拟资助“培育项目”约20项,资助强度不低于50万元/项,项目执行期为3年;拟资助“重点支持项目”约6项,资助强度约300万元/项,项目执行期为4年;暂不资助“集成项目”。2009年度资助项目总经费约3000万元。


感动 同情 无聊 愤怒 搞笑 难过 高兴 路过
【字体: 】【收藏】【打印文章】【查看评论

相关文章

    没有相关内容