函数间数据通信方式的分析与应用

函数间数据通信方式的分析与应用

一、函数间数据通信方式的分析与应用(论文文献综述)

王新亚[1](2021)在《有缆智能分层采油系统井下通信技术研究》文中认为我国油藏存储类型复杂多样,各层间非均匀性严重,随着油田开发的不断深化,大多数油田已经进入勘探开发的高含水率期,为提高油田开发的稳定性和可靠性,智能分层注采技术应运而生。在油田实际测井作业中,由于单芯电缆结构简单、价格低廉、维护方便且数据通过性好,因此被广泛应用于井地间通信的载体。在智能井分层注采过程中,单芯钢管电缆不仅要为井下仪器供电,还要作为井下储层监测信息与地面控制命令数据交互的载体。本文介绍了基于直流载波的单芯电缆通信方法,分析了信号在单芯钢管电缆中的传输特性,针对永置式智能井监测系统,建立了有缆智能分层采油通信系统数据传输模型,设计了基于单芯钢管电缆的多层半双工通信系统硬件电路。在此基础上,根据永置式智能井监测系统单芯钢管电缆数据传输的特点,设计了分层注采系统下行命令和上行数据双向通信协议。研究了井下储层监测数据和地面控制命令数据交互的误码率影响因素,针对井地间数据传输不稳的问题,设计了有缆智能分层采油系统数据自适应解码算法和长时间通信时数据自适应传输方法,可根据信号传输的误码率实时调整系统的增益和滤波系数,实现自适应高效数据传输。最后,在整体优化系统电路的基础上,开展了大量试验,实验结果表明,该系统可以快速建立稳定的井地间数据通信,并根据传输数据的误码率自适应性调节,有效提高了有缆智能分层采油系统数据交互的效率和稳定性,对油田的稳定开发具有重大意义。

梁先锋[2](2021)在《面向大规模机器学习的分布式优化算法研究》文中提出机器学习在大数据时代得到的广泛应用,随机梯度下降成为了求解这类大规模机器学习问题的基础方法。随着数据规模的增长,模型越来越大,机器学习模型的训练尤其是对于深度学习模型的训练正变得越来越耗时。因而,设计出能够高效加速训练的分布式优化算法,在机器学习的研究与应用中变得至关重要。当前大规模机器学习的训练中,往往采用分布式随机下降算法,其通过让多台机器协同计算来加速训练过程。然而,由于其算法过程中引入了多台机器的模型同步通信过程,这种分布式训练方式在实际应用中往往难以达到理想的线性加速效果。近几年,一类基于局部迭代的分布式优化算法,如Local SGD和FedAvg,由于其通信成本低,能够保证数据的隐私性而备受关注。然而,当机器之间数据分布不一致时,这类分布式优化算法收敛速率会显着衰减。在这篇文章,我们提出改进算法以提高其在异质数据下收敛速率,并进一步减少分布式优化中的通信成本。已有的相关工作已经证明,对于迭代T次的Local SGD算法,其在机器间数据分布一致和数据分布不一致通信复杂度分别为O(T1/2)和O(T3/4)。为了消除数据异质性对Local SGD造成的收敛速率衰减问题,我们提出带有方差约减的分布式优化算法VRL-SGD。我们从理论上证明了所提出算法在数据分布一致和不一致的情况下,都能够达到线性迭代加速比,并且将数据分布不一致时的Local SGD从(?)(T3/4)通信复杂度降低到(?)(T1/2)。针对可能出现的极端数据分布不一致场景,我们还提出了一种带有预热的方差约减算法VRL-SGD-W。实验结果表明了VRL-SGD显着优于Local SGD算法,而VRL-SGD-W在数据分布不一致下具有更高的鲁棒性。当前的基于Local SGD这类工作大多采用固定周期和步长的策略,然而一个随着迭代过程进行而不断自适应变化的周期或步长,往往具有更好的性能,更快的达到最优解。本文从进一步降低通信复杂度角度,在VRL-SGD的基础上采用了参数阶段性变化的策略,从而提出了阶段性方差约减局部随机梯度算法ST-VRL-SGD。ST-VRL-SGD采用了阶段性自适应的增大通信周期和减少步长,对于强凸函数,其被证明通信复杂度降低至(?)(Nlog(T)),无论机器间的数据分布是否一致。实验结果表明了ST-VRL-SGD在强凸函数下算法的优越性。

吴婧[3](2021)在《基于多核DSP的XX星座载荷处理软件系统研究》文中研究说明随着微小卫星技术的不断发展,其成本低、轻量化、发射灵活等优势使其在军事、商业和科研领域均得到了广泛应用。载荷设备研制技术的提升使得星上数据量逐渐增长,例如卫星中应用了越来越多的高分辨率成像设备,使得星上图像数据量迅速增加。海量的数据对星上电子系统的数据处理和通信能力提出了更高的要求,传统的数据透传方案已经无法应对。因此在微小卫星星上资源有限的情况下,需要研制一个高性能星上载荷数据处理软件系统,同时由于星上软件具备严格的可靠性要求,本文采用裸机底层搭建系统的方式而不使用商用操作系统。本文基于某型号微小卫星星座载荷处理系统的项目研制需求,系统核心CPU采用TMS320C66x型号八核DSP,研究了一种无操作系统支撑的多核并行运算软件系统。首先对软件系统功能进行了划分,给出了针对八核DSP软件系统设计方案,针对方案中的多核并行运算架构,本文比较了目前使用较为广泛的主从模型和数据流模型,由于数据流模型对算法的可分割性要求较高,较难达到各核的均衡化。本文基于主从模型的思想,提出了一种针对并行运算从核的数据分割方法,实现了一种较为通用的多核并行运算架构。其次,为了完成本文系统架构中多核间的协同和通信功能,本文研究了IPC中断、共享存储查询、SYS/BIOS提供的核间通信模块等多种实现方式,前两者无需操作系统支撑,但功能不完善且对应用层开发者要求较高,后者则需要操作系统支撑。因此本文设计了一种基于消息队列的核间通信方式,结合数据包共享地址信息和队列的数据结构,实现了可变长度数据的核间传输,并为应用层开发者提供了相应的API,减少开发难度的同时还可以提高存储空间的利用率。同时,本文还对多核软件系统实现过程中的关键问题进行了研究,针对多核程序的烧写和引导过程,本文通过批处理的方式实现了多个编译程序文件的一键融合,通过主核二次引导的方式实现了多核的启动,也为多核DSP程序的在轨更新提供了可行方案。针对多核访存存在的冲突问题,本文提出了一种基于硬件信号量的访存冲突保护机制。最后基于图像处理算法应用对多核并行运算系统进行了整体运行测试,提出了基于DSP的程序优化策略,并对比了优化前后以及多核的运行耗时数据,验证了本文所研究的载荷处理多核并行软件系统能够满足系统对图像处理算法的运行需求,验证了各模块设计的有效性,使得载荷处理系统满足海量数据计算、并行减少耗时的需求,为后续更多星上数据的快速处理提供了实现思路。

尤瑞君[4](2020)在《高速铁路ATO系统一致性与互联互通特性分析方法研究》文中指出伴随着高速铁路突飞猛进的发展,高速铁路自动化程度的提升成为当前研究重点,在这个背景下,高速铁路列车自动驾驶系统(Automatic Train Control System,简称“ATO系统”)应运而生。京张“智能高铁”的开通标志我国高速铁路ATO系统的迈上新的台阶。各高速铁路ATO系统厂家根据国铁集团颁布的相关系统规范进行研发,理想情况下,设备与规范完全一致且具有良好的互联互通性。但在实际情况中,由于不同开发人员对规范文本的理解不同,会出现设备与规范不一致或设备间不能互联互通的情况。为保证高速铁路ATO系统安全可靠运行,需要在实验室测试过程中,对设备与规范的一致性以及不同厂家、不同型号的设备间互联互通性进行验证。传统的一致性与互联互通性分析方法主要依靠专家经验,自动化、规范化程度较低。为解决上述问题,亟需研究一种可靠、高效、行之有效的分析方法。本文提出一种基于形式化建模与系统级故障诊断的一致性分析方法和基于机器学习算法的互联互通性分析方法,具体工作如下:首先,基于统一建模语言UML和通信顺序进程CSP对ATO系统的运行场景进行了建模与验证。结合高速铁路ATO系统的相关规范,总结归纳高速铁路ATO系统的运行场景,并采用UML用例图、类图、对象图、活动图对运行场景进行描述;根据转换规则,采用CSP语言建立模型并验证;以区间跨TSRS运行场景为例进行建模与验证,获得并发系统进程间的交互规则。然后,基于系统级故障诊断理论进行了系统一致性分析。该方法结合运行场景的形式化模型,利用节点互测理论,提取系统节点,制定节点互测机制,从而构建系统级故障诊断模型;得到测试结果矩阵后利用诊断算法,准确定位异常节点;以区间跨TSRS运行场景为例进行一致性分析,得出一致性分析结果。最后,采用机器学习领域分类算法——支持向量机(SVM)分析了高速铁路ATO系统的互联互通性。该方法主要步骤包括原始数据的获取、数据预处理、SVM分类器训练与验证、互联互通性结论分析等过程。在数据预处理过程中,采用最小类内方差法进行了特征选择;在训练过程中,对超参数进行了贝叶斯寻优,以提高分类精度;对SVM分类器进行性能评价,并在SVM分类结果的基础上,综合分析得到高速铁路ATO系统站台门联动场景下的互联互通性结论。图45幅,表26个,参考文献63篇。

沈俊忠[5](2020)在《面向大数据处理的异构融合可重构数据流加速器研究》文中研究指明近年来,人工智能技术迅猛发展,在全球范围内受到了广泛关注。以卷积经网络(Convolutional Neural Networks)、图卷积神经网络(Graph Convolutional Neural Networks)为代表的深度学习算法的不断更新迭代对计算机系统的计算性能与能耗要求急剧提高。然而,由于近年来摩尔定律发展的停滞以及冯诺伊曼结构限制,现有的数据中心架构无法高效地实现深度学习与大数据相结合的应用加速。以FPGA为代表的定制化硬件为解决上述问题提供了新思路,一方面,FPGA特有的可重构特性使其能够适应算法的快速发展变化,克服了ASIC解决方案对新兴算法适应性差的的问题;另一方面,FPGA在加速深度学习算法体现出的高能效特性也让其备受研究人员的青睐。随着国内外各大科技公司纷纷在数据中心部署FPGA设备构建异构计算加速集群,CPU+FPGA体系结构在处理大数据应用方面的优势逐渐得到肯定,CPU+FPGA异构计算体现出非常好的发展前景。本文基于CPU-多FPGA异构融合体系结构,面向深度学习与大数据相结合的典型应用,围绕加速器体系结构、算法到硬件映射方案、数据流加速器、性能模型、分布式加速方案等关键技术进行分析研究。本文的研究内容及创新点如下:·研究三维卷积神经网络的FPGA加速技术。本文提出了一种面向二维/三维卷积神经网络加速的模板化体系结构和设计方法。首先,为了减少卷积神经网络的算法复杂度,我们对Winograd快速算法进行扩展使其能运用到三维卷积神经网络中。其次,我们从二维/三维卷积神经网络中抽取了公共算子,并基于此设计了一系列可重构计算模板。最后,我们采用高层次综合语言对计算模板进行实现,并基于这些计算模板构建了加速引擎,实现了模板化加速器的快速生成。由于二维、三维卷积神经网络算法复杂度的差异,先前的工作针对二维卷积神经网络加速器提出的设计空间探索方法对于三维卷积神经网络加速器可能不再适用。针对该问题,我们提出了一种统一的性能分析模型,实现了对二维/三维卷积神经网络加速器的设计空间探索并给出了最优设计参数的搜索方法。实验结果表明针对VGG和C3D网络,我们的加速器在较低的计算资源开销下获得了与目前先进的神经网络加速器相当的性能。在计算吞吐方面,C3D网络加速器获得了13倍于CPU的性能提升;在计算能效方面,C3D网络加速器相对于CPU和GPU分别获得了60倍和30倍的提升。·研究完整的二维/三维卷积神经网络到FPGA硬件的映射方案。本文提出了一种将完整的二维/三维卷积神经网络高效映射到流水化多加速器结构的方案。为了解决网络层规模差异而导致加速器计算效率降低的问题,我们在第一项研究内容的基础上进一步提出了一种流水化多加速器方案,该方案最主要的特点是将所有的层间数据存于片上,从而增加了层间数据复用率,有效降低了片外访存开销,与之前的工作相比,我们进一步提升了加速器的吞吐和效能。为了降低层间数据的片上存储开销,我们首先提出了一种层融合确定算法,通过改变融合层(相邻的两个卷积层)中的循环顺序,实现了层间分块数据的有效利用。其次,为了实现网络层到多个加速器的高效映射,我们基于K-means聚类思想提出了一种层聚类方法,将分块参数接近的网络层进行聚类并映射到同一个加速器。此外,为了解决加速器之间的负载不均衡状况,我们还提出了一种简单而高效的负载均衡调度,进一步提升加速器整体的计算效率。实验结果表明,相比于之前提出的加速器方案,本文提出的流水化多加速器方案获得了最高2.3倍性能提升,在计算效能方面,我们相比于CPU、GPU分别提升了64倍和5倍。·研究以三维卷积神经网络为核心的医疗影像识别应用的并行加速方案。深度学习算法已成功运用到医疗影像分析应用中,然而,应用性能提升的同时,其算法的计算、存储开销也不可避免地增加,导致了应用处理延迟开销的增大。为了解决上述问题,我们以基于三维卷积神经网络的肺结节检测应用为例展开研究,提出了一套基于CPU-多FPGA异构计算平台的肺结节检测加速方案。我们首先对算法并行性进行了深入的分析,提取了核心计算负载——两种三维卷积神经网络:LNS-net和LNC-net,并针对两种网络的不同特征,分别提出了“模型并行”以及“数据并行”的映射方案。其次,我们在第二章提出的三维卷积神经网络加速器基础上进行了改进,节省了硬件资源,提高加速器资源利用率。此外,我们在FPGA节点间设计了两种互连类型——常规通路和快速通路:满足了算法映射方案对FPGA节点间通信的需求。最后,我们采用依托项目开发的定制FPGA加速板卡进行测试,实验结果表明,本文提出的异构系统具有良好的扩展性,并且面向LNS-net和LNC-net的加速方案都获得了高于CPU、GPU的计算吞吐和能效比。与此同时,系统还达到了世界先进水平检测精度。·研究面向深度图卷积神经网络的并行加速方案。我们提出了一种面向深度图卷积神经网络的分布式并行加速方案。我们选取了一个典型的深度图卷积神经网络算法——DAGCN作为主要研究对象,从算法的计算特征、稀疏性等方面对其进行了分析,并通过实验验证了网络层精度与网络深度之间存在正相关关系。我们提出了一种高效的网络映射方案,CPU负责网络层结果的聚合操作,而FPGA则对主要的计算负载——图卷积层进行加速。与前面提到的流水化并行加速方案类似,我们在每个FPGA节点内实现了多个图卷积层加速引擎,以实现多个图卷积层的并行加速。我们将所有节点内的加速引擎组织成横跨所有FPGA节点的长流水线,旨在提高FPGA节点的计算吞吐。为了找到最优设计参数,实现加速器性能最大化,我们建立了数学模型评估加速器的性能与FPGA资源开销。实验结果表明,我们在六加速节点配置下可达到2.6 TFLOPS的实测性能;我们与当前最先进的基于FPGA的图卷积神经网络加速器工作进行对比,进一步表明了我们的加速器方案在计算吞吐和计算效率方面都达到了先进的水平。

崔忠伟[6](2020)在《无线传感网节能分簇路由协议研究》文中研究指明无线传感网(Wireless Sensor Networks,WSNs)被广泛地应用于各行业,完成监测和追踪的任务。为解决平面结构路由协议可扩展性差的问题,研究人员提出适合于大规模网络的分簇路由协议,将相邻节点以自组织方式组建为分簇,簇内成员只能与簇头直接通信,簇头收集成员的信息后再转发给汇聚节点Sink。总的来说,分簇路由协议具有节能效果好、可扩展性好等优点。传统分簇路由协议的设计基本以节能为目标,而忽略了吞吐量、传输数据的平均单位能耗等性能指标,本文提出四种综合性能更好的分簇路由协议,主要工作和贡献如下:(1)分析了分簇路由协议的缺陷,并提出基于混合分簇的节能路由协议(HCEER)。采用混合分簇组建策略以降低能耗,即:在不同运行轮次交替使用两种不同的分簇组建算法。第一种算法采用基于门限的分布式随机选举技术选举簇头并组建分簇,簇头为下一轮选举新簇头,选举新簇头的准则是到簇内其他节点距离平均值最小的成员。在下一轮中,第二种算法利用新簇头来组建分簇。选举距离汇聚节点Sink最近的簇头为二级簇头以组建二级分簇并完成簇间数据传输。通过仿真实验验证,HCEER协议能延长网络生存周期、提高Sink吞吐量、降低传输数据的平均单位能耗。(2)针对基于链式结构的路由协议存在的长链、Leader节点选举等问题,提出基于多链结构的节能路由协议(PEGA-MC)。PEGA-MC协议将监测子区域中的节点组成独立的短链并选举Leader节点负责链内通信。Leader节点的选举采用交替机制,一是根据节点的地址来轮换,二是选举节点的剩余能量与其到Sink距离的比值最大者。利用贪婪算法将各Leader节点构建成链以管理短链间的通信。通过仿真实验证实,PEGA-MC协议拥有更长的网络生存周期、更高的Sink吞吐量。(3)分析了反应式分簇路由协议的不足及其数据传输门限设置问题,提出了基于混合分簇的门限感知节能路由协议(HCTSEER)。HCTSEER协议采用基于门限的分布式随机方式选举本轮的簇头,此后,选举与簇头的欧式距离最小的成员作为后续一轮的新簇头。节点在其感知半径范围内感知来自环境数据模型生成的数据,并利用硬门限和软门限两种门限控制冗余数据的传输。通过概率方法,推导出硬门限和软门限控制冗余数据传输的概率表达式,后者的概率低于前者。仿真实验结果表明,HCTSEER协议的网络生存周期更长,在提高Sink最大吞吐量的同时降低了传输数据的平均单位能耗。(4)针对最小化簇内通信能耗的路由协议采用迭代算法产生多次广播的高能耗问题,提出了基于混合分簇及多跳的节能路由协议(HCMHLER)。节点将平均最小可达功率(AMRP)作为迭代算法的通信代价函数来优化簇头的选举,之后,簇头选举AMRP最小的簇内节点作为新簇头负责后继一轮的簇内通信。成员根据距离门限选择1跳或2跳的通信方式进行簇内数据传输。各簇头根据模拟退火算法计算出的最优路径完成簇间数据的传输。通过仿真实验证实,HCMHLER协议拥有更长的网络生存周期、更高的Sink最大吞吐量、更低的传输数据的平均单位能耗。

孙弘达[7](2020)在《基于多GPU的PCG算法并行研究及其在地下水流动模拟中的应用》文中进行了进一步梳理PCG算法的并行化对许多研究问题有重要意义,可通过提高求解方程组的效率来提高数值模拟的效率。为了科学使用地下水资源往往需要分析预测其流动规律。随着研究的不断发展,地下水数值模拟程序MODFLOW已经不能很好的对大规模实验问题进行模拟分析。为了提高模拟效率,本文主要研究在多GPU环境下对PCG算法的并行化,并将其应用于MODFLOW中,从而实现MODFLOW的并行模拟。本文将PCG算法中的线性代数运算实现为基于CUDA的核函数,重点研究DIA格式并实现了较为高效的SpMV核函数。为了在单节点多GPU环境下对PCG并行化,计算任务被均等划分并分别求解,求解过程中GPU间数据传输是性能瓶颈,为此本文通过减少非必要的数据传输和将SpMV计算与传输重叠的方法来减少数据传输开销,提高PCG的加速比。在单节点环境中使用6个GPU的条件下,PCG的加速比随着GPU数量的增多和数据规模的增大而得到明显提高,最高达到36.3。在多节点环境中,通过MPI创建多个进程来通过多个GPU求解方程组,本文通过合理的数据传输模型来统一节点内和节点间数据传输的差异性,使其具有可移植性和高效性。在使用2个节点4个GPU的条件下,实验数据的最大加速比为17.3,小于单节点环境下的加速比。为了对MODFLOW并行模拟,本文分析了其模块化结构,在单节点系统上设计了OpenMP+CUDA的并行模拟流程,将其中构建方程组和求解方程组模块重新设计,实现计算任务划分和多个线程分别调用PCG求解器来完成模拟计算。在单节点环境的实验结果表明在使用6个GPU条件下,MODFLOW最大达到了11的加速比,小于并行化PCG的加速比,其原因是MODFLOW中可并行化部分的比例降低,导致加速比的减小。结果还表明稳态模拟类型的加速比较大,因为其额外开销更少。为了研究MODFLOW的可扩展性,本文结合多节点环境设计了MPI+CUDA的并行模拟流程。实验结果表明在使用2个节点4个GPU条件下,并行化MODFLOW最高达到了8.5的加速比,表明其具有一定的可扩展性。在多节点环境下,节点间数据传输的低带宽是性能的瓶颈,导致加速比小于相同条件下单节点环境中的加速比。

郭畅[8](2020)在《基于VANETs的实时信息获取与交通路网负载均衡研究》文中进行了进一步梳理随着私家车数量的飞速增长,路网的负载能力面临着越来越严峻的挑战。智能交通系统(ITS)是通过车辆、交通灯、路边节点设施、及交通管理服务器等组成的利用信息传输、传感控制等技术,有效地集成运用于整个复杂的城市交通路网,实现交通实时管理的重要技术。然而如何实现交通信息获取的实时化、如何利用实时信息对道路的状态预测和规划均衡,仍是当前智能交通系统的一大挑战。本论文借助车载自组织网络通信技术、背压机制、实时动态路径规划、内点法等思想,围绕智能交通系统中的实时信息获取、交通状态预测、动态路径规划与路网交通负载均衡等问题,针对ITS的通信效果、状态估计、路径重规划、负载最优化均衡等问题进行一系列深入研究。本论文旨在深入理解ITS中对交通负载在车辆动态变化下的最优均衡分配策略,从全局的角度构建合理、高效的负载均衡最优算法。本文的主要贡献如下:(1)首先研究了车载自组织网络中车辆间的通信延时问题。在讨论车辆移动时通信节点的拓扑变化和十字路口处的交通灯信号操作影响的基础上,本文基于十字路口处的场景模型提出了一种双向车道的车辆间V2V通信数据传输机制。通过对十字路口处不同的交通灯状态分析确定最优的中继节点的位置,输出最优的数据传输路由策略,减少了十字路口处数据传输的端到端延时。本文分析了每种情况下的端到端延时,且通过仿真验证了其相较于传统数据传输机制在端到端延时方面的优势。(2)针对路段上车辆密度影响V2R通信的数据传输延时问题,以及路边节点设施之间的信息分享存在数据冗余和信息非实时有效的问题,本文提出了一种基于车辆密度与路边节点设施覆盖范围关系的V2R数据传输机制,同时提出一种实时的R2R交通信息分享机制用于优化实时信息的有效性。文中从理论分析与仿真验证两方面,证明了提出的V2R数据传输机制可在不同车辆密度下保证数据传输有效性,R2R实时信息分享机制减少了数据的冗余度和算法复杂度。(3)针对交通流的预测问题,本文利用小波变换分析了交通流的内在属性,并对交通流信号的突变点进行检测,给出了突变点的有向序列集合,基于模式匹配的思想对当前观测过程的下一个突变点进行预测,进而对交通流时隙进行动态非均匀划分,再利用瓦西塞克模型对交通流的变化趋势进行预测。理论推导及仿真证明该交通流的动态预测方法可以兼顾预测的准确度和计算开销。(4)针对个体车辆的动态路径规划问题,考虑路段车流密度、交通灯信号、以及十字路口等因素提出了一种准确度高的行驶时间估计模型。将根据实时信息估计的行驶时间结果作为性能指标,确定车辆在动态时隙内的最优路径策略模型。利用改进的动态路径规划算法求解车辆在该实时交通状态下的最优路段。进一步地,利用背压理论(back-pressure)和罚函数最优模型(drift-plus-penalty)构建下游路段分配交通拥塞积压车辆的最优策略,并求解出各下游路段的车辆最优分配数。通过理论求解和仿真,验证了本文提出的实时动态路径规划算法(Real-time Path Planning,RPP)可以有效地缩短到达目的地的时间,并对前方路段出现的交通拥塞做到快速反应。(5)针对由于路网内负载不均匀引起的交通拥堵问题,本文考虑了车辆的行驶时间与司机的利他选择两个因素,建立整个交通路网的负载均衡最优化模型。利用动态内点法DIPM对最优化模型进行求解,得到每个动态时隙内路段中的最优负载车辆数。通过理论证明和仿真验证,该算法可以在有限次数内的迭代中收敛到最优解,同时该方法可以有效缩短车辆的行驶时间,达到路网内交通负载均衡的效果。最后,对全文中所研究的基于VANETs的实时交通信息获取与交通路网负载均衡问题做了总结,讨论了该领域中尚未解决的问题和所采用方法中的需要改进之处,并对该领域研究的发展方向做了展望。

杨思南[9](2020)在《充电桩软件状态监测与远程维护技术研究》文中认为充电桩作为电动汽车能源补充的基础配套设施,其运行状态直接影响电动汽车的发展。为实现离散分布的充电桩运行状态的集中管理,充电桩管理系统成为建设主流。当前软件故障是影响充电桩运行的主要因素,然而许多充电桩管理系统缺乏软件管理功能,无法提供软件运行过程,无法识别软件故障并复现故障过程,无法实现软件监测与维护,进而影响充电桩正常使用。为解决上述问题,主要研究充电桩软件状态监测与远程维护技术。首先,依据可靠性、通用性、功能多样性、经济性的设计要求提出总体方案,对系统的组成模块(本地采集模块、服务器端上位机模块、通信模块)和实现功能(日志查询、软件故障预警、远程查看、代码在线升级)进行设计。其次,设计充电桩运行态软件的监测数据采集方式。根据数据流与控制流以及嵌入式充电桩软硬件架构,选择通讯事件、电平事件、变量事件、函数运行等作为软件状态的监测对象并分析具体监测内容。结合程序日志提出“双区域”存储方式,以降低软件状态监测代码段对原程序的影响。利用STM32定时器设计时间数据的记录与存储方式。再次,设计充电桩的远程维护方式,实现日志查询、软件故障预警、远程查看、代码在线升级等功能。其中,日志查询功能实现软件状态的查看;软件故障预警功能实现故障自主上报与故障过程复现,其基于控制流模型和抽象解释模型设计;远程查看功能实现程序日志未涉及到的其他软件信息的查看;代码在线升级功能实现软件的远程更新,其基于IAP原理设计。根据本地充电桩与服务器端上位机模块间的应答通信模式,设计维护数据的传输过程与CAN通信协议。最后,设计充电桩软件运行监测与远程维护系统的上位机模块。基于QT平台采用MVC设计模式编写上位机软件,对上位机交互界面进行设计,通过需求分析、概念结构设计、数据表设计构建数据库。通过上位机测试表明充电桩软件监测与远程维护功能的实现。本课题实现了充电桩运行态软件的监测与远程维护,便于软件优化与软件故障解决,简化了维护过程,节省了人力资源,提高了软件运维效率。

郏乘帆[10](2019)在《面向大规模神经网络数据并行训练的运行时系统优化》文中指出人工智能(Artificial Intelligence,AI)技术经过多年的积累变得日益成熟,其应用领域也不断扩大。其中基于人工神经网络(Neural Network)的深度学习(Deep Learning)技术由于突出的效果而成为了这一领域中的研究热点。随着深度学习研究的展开,神经网络模型逐渐变得更为复杂,用于训练的样本数据规模也在不断增长。由于神经网络的参数特性,通常用于训练的数据越多,训练迭代次数越多,最终训练得到的效果越好,而这些均会导致计算量的增加,最终极大地延长了完成训练所需要的时间。本文基于多节点的CPU+GPU计算平台,针对深度学习框架在分布式训练运行时系统方面的设计进行改进和优化,从而提升大规模深度学习训练的效果,提高计算集群资源利用率,缩短训练耗时。本文的主要内容和成果包括:1.针对开源深度学习框架TensorFlow完成了从TCP/IP到RDMA的移植与优化,提高了分布式环境中不同节点之间的数据传输带宽。本文首先基于Ten-sorFlow中采用的gRPC通信框架进行RDMA移植。随后在TensorFlow框架中更进一步地直接将数据传输部分修改为RDMA实现,最终测试中优化后的Ten-sorFlow 在节点间数据传输时能够达到硬件所能提供的极限带宽。基于优化过程中得到的工程经验,本文最后完成了一套独立的RDMA通信框架,以方便其他同样需求的应用可以得到快速的移植和优化。2.针对分布式数据并行的计算和通信模式设计并实现了多种优化方案,使得分布式深度学习训练得以高效地完成。本文主要采用软件流水线方案来掩盖参数同步造成的数据延迟,配合混合精度训练方案进一步提高神经网络在GPU卡上的训练速度,最后修正了批次归一化方法在分布式环境中存在的问题,对优化算法和超参数进行了一系列调整。最终本文的优化方案在ImageNet数据集中得到了很好的验证效果。本文的部分研究报告及成果已开源,并得到了开源社区中一些开发者的关注。同时,本文的研究结论将为国产处理器环境中分布式深度学习训练的性能优化提供参考。

二、函数间数据通信方式的分析与应用(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、函数间数据通信方式的分析与应用(论文提纲范文)

(1)有缆智能分层采油系统井下通信技术研究(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 分层注采技术研究现状
        1.2.2 井地间通信技术研究现状
    1.3 本文主要内容
第二章 分层采油井单芯电缆直流载波通信技术
    2.1 单芯电缆传输特性分析
        2.1.1 单芯电缆等效电路模型
        2.1.2 单芯电缆频率特性仿真分析
        2.1.3 单芯电缆特性参数获取方法
    2.2 单芯电缆信号传输影响因素分析
    2.3 单芯电缆信号耦合方式分析
        2.3.1 耦合模块设计原则
        2.3.2 单芯电缆信号耦合方式
    2.4 本章小结
第三章 有缆智能分层采油通信系统设计
    3.1 有缆智能分层采油通信系统数据传输模型
    3.2 有缆智能分层采油通信系统双向数据传输方法设计
        3.2.1 井下永置式智能井监测系统
        3.2.2 井上控制信息处理系统
        3.2.3 井地间通信数据双向传输协议
    3.3 有缆智能分层采油通信系统硬件设计
        3.3.1 主控模块设计
        3.3.2 信号调理模块设计
        3.3.3 解码模块设计
    3.4 本章小结
第四章 有缆智能分层采油系统数据自动增益与滤波调节方法
    4.1 有缆智能分层采油系统井地间通信建立方法设计
    4.2 有缆智能分层采油通信系统数据自适应方法设计
        4.2.1 有缆智能分层采油通信系统数据快速定位算法设计
        4.2.2 有缆智能分层采油通信系统长时间数据自适应传输方法设计
    4.3 本章小结
第五章 有缆智能分层采油通信系统实验分析
    5.1 地面控制系统电路测试
    5.2 井下监测系统通信电路测试
    5.3 单芯钢管电缆载波通信系统整机实测
    5.4 本章小结
第六章 总结与展望
    6.1 完成的工作与结论
    6.2 主要创新点
    6.3 工作展望
致谢
参考文献
攻读学位期间参加科研情况及获得的学术成果

(2)面向大规模机器学习的分布式优化算法研究(论文提纲范文)

摘要
ABSTRACT
第1章 简介
    1.1 研究背景
        1.1.1 研究的问题
        1.1.2 基础算法
        1.1.3 分布式训练的机遇与挑战
    1.2 研究现状与研究动机
    1.3 符号定义与假设
        1.3.1 符号
        1.3.2 假设
    1.4 本文主要贡献
    1.5 本文组织结构
第2章 相关工作
    2.1 高效通信算法框架
    2.2 分布式优化算法
        2.2.1 梯度压缩算法
        2.2.2 模型周期平均算法
        2.2.3 异步随机梯度下降算法
    2.3 方差约减技术
第3章 VRL-SGD算法
    3.1 VRL-SGD算法流
    3.2 带有Warm-up机制的VRL-SGD-W
    3.3 方差约减角度下的VRL-SGD
    3.4 VRL-SGD算法与其他工作的联系
        3.4.1 和S-SGD算法的对比
        3.4.2 和Local SGD算法的对比
        3.4.3 和SCAFFOLD算法的对比
    3.5 VRL-SGD的收敛性分析
    3.6 算法案例分析
第4章 ST-VRL-SGD算法
    4.1 Meta-VRL-SGD元算法
    4.2 ST-VRL-SGD算法
    4.3 ST-VRL-SGD收敛性分析
    4.4 ST-VRL-SGD算法和其他工作的联系
第5章 实验
    5.1 VRL-SGD算法
        5.1.1 实验设置
        5.1.2 数据分布不一致的实验
        5.1.3 数据分布一致的实验
        5.1.4 通信周期的参数分析
        5.1.5 VRL-SGD-W中预热机制的有效性
        5.1.6 线性加速比
    5.2 ST-VRL-SGD算法
        5.2.1 实验设置
        5.2.2 迭代收敛性
        5.2.3 通信复杂度
第6章 总结与展望
    6.1 研究内容总结
    6.2 未来展望
参考文献
附录A补充材料
    A.1 引理A.1及其证明
    A.2 引理A.2及其证明
    A.3 引理A.3和引理A.4及其证明
    A.4 引理A.5及其证明
    A.5 引理A.6及其证明
    A.6 引理A.7和引理A.8及其证明
    A.7 定理4.1及其证明
致谢
在读期间发表的学术论文与取得的研究成果

(3)基于多核DSP的XX星座载荷处理软件系统研究(论文提纲范文)

致谢
摘要
Abstract
1.绪论
    1.1 论文的研究背景及意义
        1.1.1 研究背景
        1.1.2 研究意义
    1.2 国内外研究现状
        1.2.1 多核DSP软件系统的研究现状
        1.2.2 多核DSP在卫星领域的应用现状
    1.3 论文研究内容和章节安排
    1.4 论文的创新点
2.星座载荷处理系统的多核架构及软件框架设计
    2.1 星座载荷处理系统硬件平台分析
    2.2 TMS320C66x DSP硬件性能介绍
        2.2.1 多核DSP简介
        2.2.2 Keystone架构及内核性能分析
        2.2.3 外围接口性能分析
    2.3 基于星座载荷处理的DSP软件设计
        2.3.1 软件需求分析
        2.3.2 软件功能布局
        2.3.3 软件模块化分层设计
    2.4 本章小结
3.系统底层封装及高速数据传输
    3.1 底层配置及封装
        3.1.1 C66x内核时钟模块配置
        3.1.2 DDR3 存储器初始化配置
    3.2 高速SRIO接口的数据传输研究
        3.2.1 SRIO通信协议与数据包结构分析
        3.2.2 通信模式的设计与软件配置
    3.3 EMIF16 接口通信设计和实现
        3.3.1 硬件接口模块信号特征
        3.3.2 通信软件设计与实现
    3.4 本章小结
4.基于并行运算的多核软件系统实现
    4.1 多核系统软件并行模型
        4.1.1 并行编程模型概述
        4.1.2 主从模型
        4.1.3 数据流模型
        4.1.4 星座载荷处理系统并行模式设计
    4.2 核间同步与通信机制研究
        4.2.1 IPC中断通信机制
        4.2.2 基于SYS/BIOS的消息机制
        4.2.3 共享存储区域查询机制
        4.2.4 基于消息队列的核间通信方式研究与应用
    4.3 多核存储空间布局及冲突保护机制
        4.3.1 多核存储空间配置与布局
        4.3.2 基于硬件信号量的访存保护机制
    4.4 多核程序固化及上电同步研究
        4.4.1 多核程序加载原理
        4.4.2 多核程序融合
        4.4.3 多核程序加载思路及实现
        4.4.4 程序可靠性与可维护性
    4.5 本章小结
5.基于图像应用的多核系统运行实现及性能验证
    5.1 星上图像处理算法及系统运行流程
        5.1.1 星上舰船目标识别算法及目标分析
        5.1.2 星上载荷数据处理系统运行流程
    5.2 软件优化方法及实验结果分析
        5.2.1 软件优化方法
        5.2.2 相机载荷图像处理系统结果分析
    5.3 本章小结
6.总结与展望
    6.1 工作总结
    6.2 后续工作展望
参考文献
作者简历及在学期间所取得的科研成果

(4)高速铁路ATO系统一致性与互联互通特性分析方法研究(论文提纲范文)

致谢
摘要
ABSTRACT
1 引言
    1.1 研究背景和意义
    1.2 国内外研究现状
        1.2.1 高速铁路ATO系统研究现状
        1.2.2 列控系统测试分析方法研究现状
    1.3 论文主要工作与章节安排
2 一致性和互联互通性分析的关键技术
    2.1 形式化方法概述
    2.2 系统形式化建模方法研究
        2.2.1 统一建模语言UML
        2.2.2 通信顺序进程CSP
    2.3 基于图论的故障诊断模型
    2.4 支持向量机理论
        2.4.1 线性可分数据下的超平面求解
        2.4.2 惩罚项与核函数
        2.4.3 超参数的贝叶斯寻优方法
    2.5 本章小结
3 高速铁路ATO系统运行场景建模与验证
    3.1 基于UML+CSP的高速铁路ATO系统建模与验证方法
        3.1.1 UML模型到CSP模型的转换规则
        3.1.2 模型验证与规则提取
    3.2 高速铁路ATO系统框架与测试平台结构
        3.2.1 高速铁路ATO系统结构与功能
        3.2.2 高速铁路ATO系统运行场景划分
    3.3 区间跨TSRS运行场景建模与验证
        3.3.1 区间跨TSRS场景分析
        3.3.2 区间跨TSRS运行场景的UML模型
        3.3.3 区间跨TSRS运行场景的CSP模型
        3.3.4 区间跨TSRS运行场景模型验证与规则提取
    3.4 本章小结
4 高速铁路ATO系统一致性分析
    4.1 高速铁路ATO系统一致性分析方法
        4.1.1 高速铁路ATO系统实验室测试平台结构
        4.1.2 高速铁路ATO系统一致性分析方法设计
    4.2 区间跨TSRS场景下的高铁ATO系统故障检测模型
        4.2.1 提取系统节点
        4.2.2 节点互测机制
        4.2.3 故障诊断模型
        4.2.4 诊断可行性分析
    4.3 高速铁路ATO系统故障诊断算法
        4.3.1 测试无效模型
        4.3.2 诊断规则
        4.3.3 诊断算法
        4.3.4 算法验证
        4.3.5 性能分析
    4.4 高速铁路ATO系统一致性分析
        4.4.1 接口数据获取
        4.4.2 一致性诊断分析
    4.5 本章小结
5 高速铁路ATO系统互联互通特性分析
    5.1 基于SVM分类器的互联互通特性分析方法
    5.2 站台门联动场景分析
    5.3 基于SVM分类器的高速铁路ATO系统互联互通特性分析
        5.3.1 原始数据的获取
        5.3.2 数据预处理
        5.3.3 SVM分类器模型训练与验证
        5.3.4 互联互通特性分析结论
    5.4 小结
6 结论与展望
    6.1 工作总结
    6.2 研究展望
参考文献
图索引
表索引
作者简历及攻读硕士学位期间取得的研究成果
学位论文数据集

(5)面向大数据处理的异构融合可重构数据流加速器研究(论文提纲范文)

摘要
Abstract
第一章 绪论
    1.1 研究背景
    1.2 相关研究
        1.2.1 新兴异构系统结构
        1.2.2 卷积神经网络及其加速方法相关研究
        1.2.3 图神经网络研究
        1.2.4 高级综合工具
    1.3 本文主要研究内容及创新点
    1.4 论文组织结构
第二章 面向二维/三维卷积神经网络的可重构模板化加速器研究
    2.1 引言
    2.2 三维卷积神经网络算法分析
    2.3 Winograd算法扩展
    2.4 模板化设计方法
        2.4.1 算法考量
        2.4.2 提取公共算子
        2.4.3 可重构模板设计
        2.4.4 模板化加速器
        2.4.5 基于高级综合工具的优化方法
    2.5 加速器设计空间探索
        2.5.1 天花板模型
        2.5.2 性能模型
        2.5.3 资源模型
    2.6 实验评估
        2.6.1 实验设置
        2.6.2 评估结果
    2.7 相关工作
    2.8 本章小节
第三章 支持全网络并行加速的多加速器流水线设计
    3.1 引言
    3.2 神经网络加速器工作方式
    3.3 层融合技术概述
    3.4 网络映射方案
        3.4.1 CNN网络层间数据重用方式分析
        3.4.2 融合层的确定算法
        3.4.3 网络层聚类
        3.4.4 负载均衡调度方案
    3.5 加速器设计空间探索
        3.5.1 性能模型
        3.5.2 资源模型
    3.6 实验评估
        3.6.1 实验设置
        3.6.2 性能分析
        3.6.3 相关工作
    3.7 本章小节
第四章 基于CPU-FPGA异构平台的医疗影像识别加速方案
    4.1 引言
    4.2 肺结节检测
        4.2.1 算法概述
        4.2.2 算法分析
    4.3 稀疏三维Winograd算法
    4.4 CPU-多 FPGA异构并行加速系统
        4.4.1 系统总览
        4.4.2 三维反卷积层加速器
        4.4.3 网络接口模块
        4.4.4 网络模型映射方案
        4.4.5 节点通信优化
    4.5 实验评估
        4.5.1 实验设置
        4.5.2 实验结果
    4.6 相关工作
    4.7 本章小节
第五章 面向深度图卷积神经网络的分布式并行加速研究
    5.1 引言
    5.2 图卷积神经网络变体模型
        5.2.1 图卷积神经网络的稀疏性分析
        5.2.2 网络精度与网络深度的关系
    5.3 稀疏矩阵压缩方法
    5.4 矩阵乘并行分块算法
    5.5 分布式并行加速方案
        5.5.1 系统结构
        5.5.2 深度图卷积神经网络映射方案
        5.5.3 图卷积神经网络加速器
    5.6 系统性能与资源评估
        5.6.1 性能模型
        5.6.2 资源模型
    5.7 实验评测
        5.7.1 实验设置
        5.7.2 性能分析
    5.8 相关工作
    5.9 本章小节
第六章 工作总结与未来展望
    6.1 工作总结
    6.2 未来展望
致谢
参考文献
作者在学期间取得的学术成果

(6)无线传感网节能分簇路由协议研究(论文提纲范文)

摘要
abstract
第1章 绪论
    1.1 无线传感网的定义
    1.2 无线传感网的协议栈
    1.3 传感器节点的能耗
    1.4 无线传感网的节能策略
    1.5 论文结构安排
第2章 无线传感网的路由协议及分簇技术
    2.1 无线传感网路由协议的概念
    2.2 路由协议的分类
    2.3 分簇路由
        2.3.1 分簇路由的概念
        2.3.2 典型分簇路由协议及特点
    2.4 本章小结
第3章 基于混合分簇的无线传感网节能路由协议
    3.1 相关工作
    3.2 HCEER协议的系统描述及建模
        3.2.1 网络模型
        3.2.2 无线通信能耗模型
    3.3 HCEER协议的描述
        3.3.1 分簇组建
        3.3.2 簇内数据传输
        3.3.3 簇间数据传输
    3.4 HCEER协议的仿真及性能评估
    3.5 本章小结
第4章 基于多链结构的无线传感网节能路由协议
    4.1 相关研究
    4.2 PEGA-MC协议的系统描述及建模
        4.2.1 网络模型
        4.2.2 无线通信能耗模型
    4.3 PEGA-MC协议的描述
        4.3.1 短链的构建
        4.3.2 Leader节点选举
        4.3.3 短链内数据传输
        4.3.4 短链间数据传输
    4.4 PEGA-MC协议的仿真及性能评估
    4.5 本章小结
第5章 基于混合分簇的无线传感网门限感知节能路由协议
    5.1 相关研究
    5.2 HCTSEER协议的系统描述及建模
        5.2.1 网络模型
        5.2.2 无线通信能耗模型
        5.2.3 环境数据模型
    5.3 HCTSEER协议的描述
        5.3.1 分簇组建
        5.3.2 环境数据感知
        5.3.3 簇内数据传输
        5.3.4 簇间数据传输
    5.4 HCTSEER协议的仿真及性能评估
    5.5 本章小结
第6章 混合分簇及多跳的无线传感网节能路由协议
    6.1 相关研究
    6.2 HCMHLER协议的系统描述及建模
        6.2.1 网络模型
        6.2.2 无线通信能耗模型
    6.3 HCMHLER协议的描述
        6.3.1 分簇组建及簇内通信机制
        6.3.2 簇内数据传输
        6.3.3 簇间数据传输
    6.4 HCMHLER协议的仿真及性能评估
    6.5 本章小结
第7章 结束语
    7.1 论文的主要工作总结
    7.2 研究展望
参考文献
附录一 攻读博士期间的科研情况
附录二 致谢

(7)基于多GPU的PCG算法并行研究及其在地下水流动模拟中的应用(论文提纲范文)

摘要
abstract
第1章 绪论
    1.1 研究背景
    1.2 国内外研究现状
    1.3 研究目标与内容
    1.4 论文组织结构
第2章 相关内容介绍
    2.1 预条件共轭梯度算法
    2.2 稀疏矩阵的存储格式
    2.3 地下水流动数值模型
    2.4 并行计算相关技术
        2.4.1 GPU架构
        2.4.2 CUDA编程模型
        2.4.3 OpenMP编程模型
        2.4.4 MPI编程模型
    2.5 本章小结
第3章 基于多GPU的 PCG算法并行研究
    3.1 基于CUDA的 PCG并行研究
        3.1.1 PCG并行化分析
        3.1.2 稀疏矩阵的存储
        3.1.3 高性能Sp MV设计
    3.2 基于单节点的PCG并行计算
        3.2.1 单节点并行架构设计
        3.2.2 GPU间的数据传输
        3.2.3 数据传输优化
        3.2.4 实验与结果分析
    3.3 基于多节点的PCG并行计算
        3.3.1 多节点并行架构设计
        3.3.2 数据传输模型
        3.3.3 实验与结果分析
    3.4 本章小结
第4章 基于多GPU的地下水模拟并行研究
    4.1 地下水模拟程序结构分析
    4.2 基于单节点的地下水模拟并行加速
        4.2.1 单节点并行模拟流程
        4.2.2 实验与结果分析
    4.3 基于多节点的地下水模拟并行加速
        4.3.1 多节点并行模拟流程
        4.3.2 实验与结果分析
    4.4 本章小结
第5章 总结与展望
    5.1 总结
    5.2 展望
致谢
参考文献
附录

(8)基于VANETs的实时信息获取与交通路网负载均衡研究(论文提纲范文)

中英释义对照表
摘要
ABSTRACT
第1章 绪论
    1.1 课题研究背景和意义
    1.2 国内外研究现状
    1.3 论文研究内容与创新点
        1.3.1 论文研究内容
        1.3.2 论文创新点
    1.4 论文章节安排
第2章 车辆间通信下的交通信息数据传输
    2.1 相关工作及问题的提出
    2.2 基于VANETs的 V2V的数据传输方法
        2.2.1 系统场景与基本假设
        2.2.2 携带-前传机制(carry-and-forward)与等待队列
        2.2.3 双向队列作中继节点转发模型
    2.3 V2V十字路口处的实时数据转发机制
        2.3.1 转发机制算法设计
        2.3.2 路网中多十字路口的数据传输延时
    2.4 双向道路V2V数据传输仿真
        2.4.1 仿真场景与参数设定
        2.4.2 性能参数与评估指标
        2.4.3 仿真结果分析
    2.5 本章小结
第3章 车与路边节点间的数据传输与分享
    3.1 相关工作及问题的提出
    3.2 基于VANETs的 V2R的数据传输方法
        3.2.1 V2R数据传输场景假设
        3.2.2 基于车辆密度的V2R数据传输延时分析
        3.2.3 基于车辆密度下的V2R数据传输算法设计
    3.3 不同车辆密度下的V2R数据传输仿真分析
        3.3.1 仿真平台与参数设定
        3.3.2 V2R通信仿真结果分析
    3.4 基于VANETs的 R2R的信息分享算法
        3.4.1 R2R的信息分享算法场景假设
        3.4.2 R2R的实时信息分享算法设计
        3.4.3 R2R的信息分享算法效果分析
    3.5 R2R信息分享算法仿真分析
        3.5.1 仿真平台与参数设定
        3.5.2 R2R信息分享算法仿真效果分析
    3.6 本章小结
第4章 基于小波变换的多尺度交通流预测
    4.1 相关工作及问题的提出
    4.2 基于小波变换的多尺度动态交通流预测
        4.2.1 场景假设
        4.2.2 基于小波变换的突变点检测
        4.2.3 基于模式匹配的下一突变点时刻预测
        4.2.4 基于瓦西塞克模型的交通流预测
    4.3 基于小波变换的多尺度动态交通流预测仿真
        4.3.1 仿真场景与仿真过程
        4.3.2 仿真参数与评估指标
        4.3.3 仿真结果分析
    4.4 本章小结
第5章 基于行驶时间估计的动态路径规划
    5.1 相关工作及问题的提出
    5.2 TTE实时行驶时间估计
        5.2.1 系统模型与场景假设
        5.2.2 行驶时间估计方法TTE
        5.2.3 TTE准确度分析
    5.3 实时TTE路径规划算法RPP
        5.3.1 场景假设与问题描述
        5.3.2 RPP算法设计
        5.3.3 RPP算法重规划效果分析
    5.4 基于TTE的 RPP仿真
        5.4.1 仿真场景与仿真过程
        5.4.2 仿真参数与评估指标
        5.4.3 TTE仿真结果分析
        5.4.4 RPP仿真结果分析
    5.5 本章小结
第6章 全局交通路网负载均衡
    6.1 相关工作及问题的提出
    6.2 场景与系统模型
        6.2.1 系统框架与过程
        6.2.2 交通流动模型
        6.2.3 交通拥塞估计模型
    6.3 路网负载均衡最优化模型
        6.3.1 司机行为与备选路径限制
        6.3.2 最优化模型
    6.4 动态内点法求解
        6.4.1 DIPM算法设计
        6.4.2 DIPM算法分析
    6.5 路网负载均衡算法仿真
        6.5.1 仿真场景与仿真过程
        6.5.2 仿真参数与评估指标
        6.5.3 仿真结果分析
    6.6 本章小结
第7章 总结与展望
    7.1 总结
    7.2 展望
参考文献
致谢
附录
    附录 A 攻读博士学位期间取得的成果
    附录 B 攻读博士学位期间参与的项目

(9)充电桩软件状态监测与远程维护技术研究(论文提纲范文)

摘要
abstract
1 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 充电桩管理系统的研究现状
        1.2.2 软件监测技术的研究现状
        1.2.3 软件维护技术的研究现状
    1.3 本研究主要工作
2 充电桩软件状态监测与远程维护系统的总体设计
    2.1 设计要求分析
    2.2 总体方案
        2.2.1 本地采集模块设计
        2.2.2 服务器端上位机模块设计
        2.2.3 通信模块设计
        2.2.4 总体实现
    2.3 本章小结
3 充电桩软件状态监测数据采集技术
    3.1 软件状态监测对象分析
        3.1.1 信息流分析
        3.1.2 嵌入式充电桩结构分析
    3.2 软件状态监测对象选择
        3.2.1 驱动事件的监测
        3.2.2 函数运行的监测
    3.3 监测数据的存储设计
        3.3.1 程序日志特征
        3.3.2 日志存储设计
    3.4 时间数据的存储设计
        3.4.1 STM32 定时器工作原理
        3.4.2 日志时间的存储设计
    3.5 本章小结
4 充电桩远程维护实现方法
    4.1 日志查询功能实现
        4.1.1 日志查询过程
        4.1.2 CAN通信协议设计
    4.2 软件故障预警功能实现
        4.2.1 软件故障预警方法
        4.2.2 预警代码具体实现
        4.2.3 预警信息查询过程
    4.3 远程查看功能实现
        4.3.1 变量数值查看
        4.3.2 CPU占用率查询
        4.3.3 软件复位
    4.4 代码在线升级功能实现
        4.4.1 IAP原理简介
        4.4.2 IAP具体实现
        4.4.3 数据传输过程
    4.5 本章小结
5 充电桩软件状态监测与远程维护系统的上位机设计与测试
    5.1 基于MVC模式的软件设计
        5.1.1 MVC模式简介
        5.1.2 代码具体实现
    5.2 交互界面设计
    5.3 数据库设计
        5.3.1 My SQL简介
        5.3.2 数据库的需求分析
        5.3.3 数据库的概念结构设计
        5.3.4 数据表的结构设计
    5.4 功能测试
    5.5 本章小结
6 总结与展望
    6.1 总结
    6.2 展望
致谢
参考文献
附录

(10)面向大规模神经网络数据并行训练的运行时系统优化(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 引言
    1.2 研究背景
        1.2.1 深度学习及深度学习框架
        1.2.2 分布式训练
        1.2.3 以GPU为代表的计算加速器
    1.3 本文研究问题
        1.3.1 数据传输带宽面临的挑战
        1.3.2 计算与数据组织所带来的挑战
    1.4 本文主要工作
    1.5 本文组织结构
第2章 相关工作
    2.1 分布式训练中的参数同步算法研究及实现
    2.2 针对ImageNet数据集的大规模分布式训练实现
    2.3 深度学习加速的其他研究热点
        2.3.1 神经网络的自适应调整算法
        2.3.2 计算图的编译执行方案
        2.3.3 神经网络压缩
    2.4 RDMA
        2.4.1 RDMA技术简介
        2.4.2 RDMA的数据传输过程
    2.5 本章小结
第3章 TensorFlow框架的训练基准性能测试和软件实现分析
    3.1 数据并行训练过程分析
    3.2 典型卷积神经网络的训练基准性能测试
    3.3 TensorFlow数据流模型介绍
        3.3.1 自动微分
        3.3.2 跨设备环境下的计算图控制
    3.4 TensorFlow的数据流运行时系统实现分析
        3.4.1 异步多线程调度实现分析
    3.5 TensorFlow的分布式运行时系统实现分析
        3.5.1 额外的分布式辅助库
    3.6 本章小结
第4章 高效的节点间数据传输实现
    4.1 方案一:gRPC的RDMA移植
        4.1.1 gRPC的数据传输实现分析
        4.1.2 RDMA移植方案设计
    4.2 方案二:TensorFlow的RDMA优化
        4.2.1 TensorFlow中Send/Recv操作的实现分析
        4.2.2 针对TensorFlow的RDMA通信协议设计
        4.2.3 内存管理优化
    4.3 RDMA优化效果评估
    4.4 独立RDMA通信框架设计
        4.4.1 框架结构设计
        4.4.2 数据传输协议设计
    4.5 本章小结
第5章 分布式数据并行优化方案
    5.1 数据并行中的参数维护模式分析
    5.2 数据并行中的训练并行性分析
    5.3 软件流水线优化
        5.3.1 软件流水线方案的线程池调度调整
    5.4 混合精度训练优化
    5.5 批次归一化方法的卡间同步优化
    5.6 数据并行优化效果评估
    5.7 优化算法(Optimizer)以及超参数调整
    5.8 本章小结
第6章 总结与展望
    6.1 研究工作总结
    6.2 本文创新点
    6.3 未来工作展望
参考文献
致谢
在读期间发表的学术论文与取得的研究成果
在读期间参与的科研项目

四、函数间数据通信方式的分析与应用(论文参考文献)

  • [1]有缆智能分层采油系统井下通信技术研究[D]. 王新亚. 西安石油大学, 2021(09)
  • [2]面向大规模机器学习的分布式优化算法研究[D]. 梁先锋. 中国科学技术大学, 2021(08)
  • [3]基于多核DSP的XX星座载荷处理软件系统研究[D]. 吴婧. 浙江大学, 2021(01)
  • [4]高速铁路ATO系统一致性与互联互通特性分析方法研究[D]. 尤瑞君. 北京交通大学, 2020(03)
  • [5]面向大数据处理的异构融合可重构数据流加速器研究[D]. 沈俊忠. 国防科技大学, 2020(01)
  • [6]无线传感网节能分簇路由协议研究[D]. 崔忠伟. 贵州大学, 2020(04)
  • [7]基于多GPU的PCG算法并行研究及其在地下水流动模拟中的应用[D]. 孙弘达. 中国地质大学(北京), 2020(09)
  • [8]基于VANETs的实时信息获取与交通路网负载均衡研究[D]. 郭畅. 东华大学, 2020
  • [9]充电桩软件状态监测与远程维护技术研究[D]. 杨思南. 南京理工大学, 2020(01)
  • [10]面向大规模神经网络数据并行训练的运行时系统优化[D]. 郏乘帆. 中国科学技术大学, 2019(02)

标签:;  ;  ;  ;  ;  

函数间数据通信方式的分析与应用
下载Doc文档

猜你喜欢