基金委发布下一代人工智能方法重大研究计划项目指南-天天热门

2023-04-04 13:25:30    来源:

关于发布可解释、可通用的下一代人工智能方法重大研究计划2023年度项目指南的通告

国科金发计〔2023〕12号

国家自然科学基金委员会现发布可解释、可通用的下一代人工智能方法重大研究计划2023年度项目指南,请申请人及依托单位按项目指南中所述的要求和注意事项申请。


(资料图)

国家自然科学基金委员会

2023年3月31日  

可解释、可通用的下一代人工智能方法重大研究计划2023年度项目指南

可解释、可通用的下一代人工智能方法重大研究计划面向人工智能发展国家重大战略需求,以人工智能的基础科学问题为核心,发展人工智能新方法体系,促进我国人工智能基础研究和人才培养,支撑我国在新一轮国际科技竞争中的主导地位。

一、科学目标

本重大研究计划面向以深度学习为代表的人工智能方法鲁棒性差、可解释性差、对数据的依赖性强等基础科学问题,挖掘机器学习的基本原理,发展可解释、可通用的下一代人工智能方法,并推动人工智能方法在科学领域的创新应用。

二、核心科学问题

本重大研究计划针对可解释、可通用的下一代人工智能方法的基础科学问题,围绕以下三个核心科学问题开展研究。

(一)深度学习的基本原理。

深入挖掘深度学习模型对超参数的依赖关系,理解深度学习背后的工作原理,建立深度学习方法的逼近理论、泛化误差分析理论和优化算法的收敛性理论。

(二)可解释、可通用的下一代人工智能方法。

通过规则与学习结合的方式,建立高精度、可解释、可通用且不依赖大量标注数据的人工智能新方法。开发下一代人工智能方法需要的数据库和模型训练平台,完善下一代人工智能方法驱动的基础设施。

(三)面向科学领域的下一代人工智能方法的应用。

发展新物理模型和算法,建设开源科学数据库、知识库、物理模型库和算法库,推动人工智能新方法在解决科学领域复杂问题上的示范性应用。

三、2023年度资助研究方向

(一)培育项目。

围绕上述科学问题,以总体科学目标为牵引,拟以培育项目的方式资助探索性强、选题新颖的申请项目,研究方向如下:

1. 深度学习的表示理论和泛化理论

研究卷积神经网络(以及其它带对称性的网络)、图神经网络、transformer网络、循环神经网络、低精度神经网络、动态神经网络、生成扩散模型等模型的泛化误差分析理论、鲁棒性和稳定性理论,并在实际数据集上进行检验;研究无监督表示学习、预训练-微调范式等方法的理论基础,发展新的泛化分析方法,指导深度学习模型和算法设计。

2. 深度学习的训练方法

研究深度学习的损失景观,包括但不限于:临界点的分布及其嵌入结构、极小点的连通性等,深度学习中的非凸优化问题、优化算法的正则化理论和收敛行为,神经网络的过参数化和训练过程对于超参的依赖性问题、基于极大值原理的训练方法、训练时间复杂度等问题,循环神经网络记忆灾难问题、编码-解码方法与Mori-Zwanzig方法的关联特性,发展收敛速度更快、时间复杂度更低的训练算法及工具,建立卷积网络、Transformer网络、扩散模型、混合专家模型等特定模型的优化理论及高效训练方法,深度学习优化过程对泛化性能的影响等。

3. 微分方程与机器学习

研究求解微分方程正反问题及解算子逼近的概率机器学习方法;基于生成式扩散概率模型的物理场生成、模拟与补全框架;基于微分方程设计新的机器学习模型,设计和分析网络结构、加速模型的推理、分析神经网络的训练过程。

面向具有实际应用价值的反问题,研究机器学习求解微分方程的鲁棒算法;研究传统微分方程算法和机器学习方法的有效结合方法;研究高维微分方程的正则性理论与算法;研究微分方程解算子的逼近方法(如通过机器学习方法获得动理学方程、弹性力学方程、流体力学方程、Maxwell方程以及其它常用微分方程的解算子);融合机器学习方法处理科学计算的基础问题(求解线性方程组、特征值问题等)。

4. 隐私保护的机器学习方法

针对主流机器学习问题,结合安全多方计算、全同态加密、零知识证明等方法构建具备实用性的可信机器学习环境。发展隐私保护协同训练和预测方法,发展加密和隐私计算环境的特征聚类、查询和多模型汇聚方法,发展加密跨域迁移学习方法,发展面向对抗样本、后门等分析、攻击、防御和修复方法,研究机器学习框架对模型干扰、破坏和控制方法,发展可控精度的隐私计算方法。

5. 图神经网络的新方法

利用调和分析、粒子方程等数学理论解决深度图网络的过度光滑、过度挤压等问题,针对多智能体网络协同控制、药物设计等重要应用场景设计有效的、具有可解释性的图表示学习方法。

6. 脑科学启发的新一代人工智能方法

发展对大脑信息整合与编码的定量数学刻画和计算方法,设计新一代脑启发的深度神经网络和循环神经网络,提高传统神经网络的表现性能;建立具有树突几何结构和计算功能的人工神经元数学模型,并用于发展包含生物神经元树突计算的深度神经网络和循环神经网络,提高传统神经网络的表现性能;发展包含多种生物神经元生理特征和生物神经元网络结构特点的人工神经网络及其训练算法,解决图像识别、图像恢复、医学图像重构、地震波检测等应用问题。

7. 数据驱动与知识驱动融合的人工智能方法

建立数据驱动的机器学习与知识驱动的符号计算相融合的新型人工智能理论和方法,突破神经网络模型不可解释的瓶颈;研究知识表示与推理框架、大规模隐式表达的知识获取、多源异构知识融合、知识融入的预训练模型、知识数据双驱动的决策推理等,解决不同场景的应用问题。

8. 生物医药领域的人工智能方法

发展自动化程度高的先导化合物优化方法,建立生物分子序列的深度生成模型,准确、高效生成满足特定条件(空间结构、功能、物化性质、蛋白环境等)的分子序列;发展蛋白质特征学习的人工智能新方法,用于蛋白质功能、结构、氨基酸突变后亲和力与功能改变等预测以及蛋白质与生物分子(蛋白、肽、RNA、配体等)相互作用预测;针对免疫性疾病等临床表现差异大、预后差等问题,发展序列、结构等抗体多模态数据融合和预测的人工智能模型,用于免疫性疾病的早期诊断和临床分型等。

9. 科学计算领域的人工智能方法

针对电子多体问题,建立薛定谔方程数值计算、第一性原理计算、增强采样、自由能计算、粗粒化分子动力学等的人工智能方法,探索人工智能方法在电池、电催化、合金、光伏等体系研究中的应用。

针对典型的物理、化学、材料、生物、燃烧等领域的跨尺度问题和动力学问题,通过融合物理模型与人工智能方法,探索复杂体系变量隐含物理关系的挖掘方法,建立构效关系的数学表达,构建具有通用性的跨尺度人工智能辅助计算理论和方法,解决典型复杂多尺度计算问题。

10. 人工智能驱动的下一代微观科学计算平台

发展基于人工智能的高精度、高效率的第一性原理方法;面向物理、化学、材料、生物等领域的实际复杂问题,建立多尺度模型,实现高精度、大尺度和高效率的分子动力学模拟方法;探索建立人工智能与科学计算双驱动的“软-硬件协同优化”方法和科学计算专用平台。

(二)重点支持项目。

围绕核心科学问题,以总体科学目标为牵引,拟以重点支持项目的方式资助前期研究成果积累较好、对总体科学目标在理论和关键技术上能发挥推动作用、具备产学研用基础的申请项目,研究方向如下:

1. 经典数值方法与人工智能融合的微分方程数值方法

设计融合经典方法和人工智能方法优势的新型微分方程数值方法。针对经典数值方法处理复杂区域的困难和人工智能方法效果的不确定性、误差的不可控性,发展兼具稳定收敛阶和简便性的新型算法;针对弹性力学、流体力学等微分方程,探索其解的复杂度与逼近函数表达能力之间的定量关系;开发针对三维含时问题的高效并行算法,并应用到多孔介质流等问题;发展求解微分方程反问题的新算法并用于求解实际问题。

2. 复杂离散优化的人工智能求解器

面向混合整数优化、组合优化等离散优化问题,建立人工智能和领域知识结合的可通用的求解器框架;建立高精度求解方法和复杂约束问题的可控近似求解方法;发展超大规模并行求解方法和基于新型计算架构的加速方法;在复杂、高效软件设计等场景开展可靠性验证。

3. 开放环境下多智能体协作的智能感知理论与方法

针对多模态信息融合中由于数据视角、维度、密度、采集和标注难易程度不同而造成的融合难题,研究基于深度学习的融合模型,实现模态一致性并减少融合过程中信息损失;研究轻量级的模态间在线时空对齐方法;研究能容忍模态间非对齐状态下的融合方法;研究用易采集、易标注模态数据引导的难采集、难标注模态数据的预训练与微调方法;研究大规模多任务、多模态学习的预训练方法,实现少样本/零样本迁移。

4. 可通用的专业领域人机交互方法

针对多变输入信号,建立自动化多语种语言、图像、视频等多模态数据生成模型,发展可解释的多轮交互决策方法;建立机器学习和知识搜索的有效结合方法;探索新方法在不同专业领域场景中的应用。

5. 下一代多模态数据编程框架

发展面向超大规模多模态数据(文本、图像、视频、向量、时间序列、图等)的存储、索引、联合查询和分析方法。发展一体化的多模态数据编程框架,建立自动化数据生成、评估和筛选方法,实现自动知识发现和自动模型生成性能的突破,并完成超大规模、多模态数据集上的可靠性验证。

6. 支持下一代人工智能的开放型高质量科学数据库

研究跨领域、多模态科学数据的主动发现、统一存储和统一管理方法。研究基于主动学习的科学数据、科技文献知识抽取与融合方法。研究跨学科、多尺度科学数据的知识对象标识化、语义化构建方法。研究融合领域知识的多模态预训练语言模型,开发通用新型数据挖掘方法。形成具有一定国际影响力的覆盖生命、化学、材料、遥感、空间科学等领域的高质量、通用型科学数据库,为人工智能驱动的科学研究新范式提供基础科学数据资源服务。

7. 高精度、可解释的谱学和影像数据分析方法

发展光谱、质谱和各类影像数据处理的人工智能方法。建立融合模拟与实验数据的可解释“谱-构-效”模型,开发人工智能驱动的光谱实时解读与反演软件;基于AlphaFold等蛋白结构预测方法,建立高精度冷冻电镜蛋白结构反演算法等。

8. 高精度、可解释的生物大分子设计平台

建立人工智能驱动的定向进化方法,助力生物大分子优化设计。发展兼顾数据推断和物理机制筛选双重优势且扩展性高的人工智能方法,辅助物理计算高维势能面搜索。在医用酶及大分子药物设计上助力定向进化实验,将传统实验时间降低50%以上,通过人工智能设计并湿实验合成不小于3款高活性、高稳定性、高特异性的新型医用蛋白。发展基于人工智能的新一代生物大分子力场模型,大幅提升大分子模拟计算的可靠性,针对生物、医药、材料领域中的分子设计问题,实现化学精度的大尺度分子动力学模拟。

四、项目遴选的基本原则

(一)紧密围绕核心科学问题,鼓励基础性和交叉性的前沿探索,优先支持原创性研究。

(二)优先支持面向发展下一代人工智能新方法或能推动人工智能新方法在科学领域应用的研究项目。

(三)重点支持项目应具有良好的研究基础和前期积累,对总体科学目标有直接贡献与支撑。

五、2023年度资助计划

2023年度拟资助培育项目25~30项,直接费用资助强度约为80万元/项,资助期限为3年,培育项目申请书中研究期限应填写“2024年1月1日—2026年12月31日”;拟资助重点支持项目6~8项,直接费用资助强度约为300万元/项,资助期限为4年,重点支持项目申请书中研究期限应填写“2024年1月1日—2027年12月31日”。

六、申请要求

(一)申请条件。

本重大研究计划项目申请人应当具备以下条件:

1. 具有承担基础研究课题的经历;

2. 具有高级专业技术职务(职称)。

在站博士后研究人员、正在攻读研究生学位以及无工作单位或者所在单位不是依托单位的人员不得作为申请人进行申请。

(二)限项申请规定。

执行《2023年度国家自然科学基金项目指南》“申请规定”中限项申请规定的相关要求。

(三)申请注意事项。

申请人和依托单位应当认真阅读并执行本项目指南、《2023年度国家自然科学基金项目指南》和《关于2023年度国家自然科学基金项目申请与结题等有关事项的通告》中相关要求。

1. 本重大研究计划项目实行无纸化申请。申请书提交日期为2023年5月8日—5月15日16时。

2. 项目申请书采用在线方式撰写。对申请人具体要求如下:

(1)申请人应当按照科学基金网络信息系统中重大研究计划项目的填报说明与撰写提纲要求在线填写和提交电子申请书及附件材料。

(2)本重大研究计划旨在紧密围绕核心科学问题,将对多学科相关研究进行战略性的方向引导和优势整合,成为一个项目集群。申请人应根据本重大研究计划拟解决的具体科学问题和项目指南公布的拟资助研究方向,自行拟定项目名称、科学目标、研究内容、技术路线和相应的研究经费等。

(3)申请书中的资助类别选择“重大研究计划”,亚类说明选择“培育项目”或“重点支持项目”,附注说明选择“可解释、可通用的下一代人工智能方法”,受理代码选择T01,根据申请的具体研究内容选择不超过5个申请代码。

培育项目和重点支持项目的合作研究单位不得超过2个。

(4)申请人在“立项依据与研究内容”部分,应当首先说明申请符合本项目指南中的资助研究方向,以及对解决本重大研究计划核心科学问题、实现本重大研究计划总体科学目标的贡献。

如果申请人已经承担与本重大研究计划相关的其他科技计划项目,应当在申请书正文的“研究基础与工作条件”部分论述申请项目与其他相关项目的区别与联系。

3. 依托单位应当按照要求完成依托单位承诺、组织申请以及审核申请材料等工作。在2023年5月15日16时前通过信息系统逐项确认提交本单位电子申请书及附件材料,并于5月16日16时前在线提交本单位项目申请清单。

4. 其他注意事项

(1)为实现重大研究计划总体科学目标和多学科集成,获得资助的项目负责人应当承诺遵守相关数据和资料管理与共享的规定,项目执行过程中应关注与本重大研究计划其他项目之间的相互支撑关系。

(2)为加强项目的学术交流,促进项目群的形成和多学科交叉与集成,本重大研究计划将每年举办一次资助项目的年度学术交流会,并将不定期地组织相关领域的学术研讨会。获资助项目负责人有义务参加本重大研究计划指导专家组和管理工作组所组织的上述学术交流活动,并认真开展学术交流。

(四)咨询方式。

国家自然科学基金委员会交叉科学部交叉科学一处

联系电话:010-62328382

[责任编辑:h001]
关键词:

相关新闻

联系邮箱:99 25 83 5@qq.com

备案号:豫ICP备2020035338号-4 营业执照公示信息

产经时报 版权所有