分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 高性能计算机体系结构的复杂性对使用者提出了更高要求,而且在工程实际和科学实验中,通常需要使用多种应用软件相互协作才能解决复杂问题。围绕超算资源的易用性和多类软件的集成以及协作需求,开发了超算环境下的科学工作流应用平台,设计了异步并发的流程执行引擎,采取调度算法和调度器、引擎相分离的设计策略,给出了资源调度方案。提出了局部资源池化技术和资源预约算法,并比较分析了五种常用调度算法的性能,给出了算法选择的建议。实际应用表明设计的引擎能够支撑复杂工作流的灵活执行方式,给出的资源调度方案能够满足超算环境下工作流应用的高效执行。
分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 精神疲劳是许多慢性疾病如心血管疾病、糖尿病和癌症的关键原因,然而又难以量化评估及测量,提出了一种通过智能穿戴设备检测脑力劳动者疲劳程度的工程可行性的方案。为了检测脑力疲劳程度,通过Man-Whitney U检验评估了HRV各项指标在判断精神疲劳状态的统计显著性,并使用随机森林进行特征选择以确定HRV各项指标的重要性;研究发现,最重要的HRV指标分别是NN。mean,PNN50、VLF、LF和TP。最后采用SVM、Naïve Bayes、KNN和逻辑回归四种机器学习算法对进行疲劳状态进行识别,实验证明了KNN分类器最为有效,其交叉验证准确率为75.5%和AUC为0.74。
分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 针对轴承故障信号的非平稳性和非线性特点,采用小波包分解和自回归(auto-regressive,AR)谱估计相结合的方法提取振动信号特征值;为了提高诊断结果的精度,提出用深度信念网络(deep believe network,DBN)进行诊断模型训练。首先,对轴承振动信号进行小波包分解和自回归谱估计,计算不同频段的能量实现轴承故障特征提取;其次,将提取到的特征值作为深度信念网络的输入向量,进行模型训练;最后,用训练好的模型进行故障诊断。为验证本文所提方法的有效性,采用美国凯斯西储大学提供的旋转轴承数据集,将提出算法与三种故障诊断方法进行对比实验。实验结果表明,所提方法具有更好的诊断性能。
分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 车联网的大规模部署及其在智能网联汽车领域的广泛应用前需要对其性能及功能进行全面、深入的测试评价,其中通过仿真技术对其进行评价分析是当前的主流测试评价手段。从车联网研究及应用过程中的测试评价需求出发,总结了主流的网络仿真器和交通仿真器,对现有车联网仿真平台进行了分类,研究并对比分析了典型的车联网仿真平台;针对车联网的应用特性,研究并归纳了影响车联网仿真性能的车辆移动模型、信道传播模型及驾驶员行为等;从网络仿真指标、车联网应用相关指标归纳了车联网功能及性能测试的典型评价指标;最后探讨了车联网仿真测试的发展方向。
分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 人体行为识别应用广泛,是人工智能领域研究的热点问题,针对人体行为识别算法进行归纳总结,具有很重要的参考价值。以行为识别为核心,同时包含数据集、动作分割等内容。引言部分主要讲述人体行为识别的基础流程,数据集部分归纳了人体行为识别常用的数据集,动作分割方法总结了时域分割的发展现状和常用的方法,传统方法讲解了人体行为识别比较经典的方法,深度学习方法归纳了人体行为识别最新最热的深度学习方法。引入了动作分割,再结合行为识别,能够实现连续的人体行为识别,使得行为识别适用于实际场景,而不再是对经过人工剪辑好的单个视频进行识别,这在实际应用中意义重大。
分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 区块链是数字货币研究的主流技术和重要前提。作为一种去中心化的分布式计算技术,区块链具有共同维护、防窜改、可追溯等中心化技术所不具备的优势。以区块链的基本原理为基础,主要分析了哈希加密、共识机制以及智能合约方面的关键技术;以区块链中的首个应用比特币为基础,,分析了以太坊、达世币、卡尔达诺、比特股等数字货币的发展演化历程。根据数字货币的研究现状及其所面临的诸多挑战,展望了区块链未来在数字货币的发行与监管、交易跟踪和海量交易数据分析方面的研究趋势。
分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 交通信号灯管理与控制直接影响着交通网络中的运行效率。NS-BML模型广泛应用于交通信号灯控制系统仿真,针对目前NS-BML模型中只考虑现在瞬时密度而忽略历史密度的问题,提出记忆密度策略,从长时记忆密度策略和短时记忆密度策略两个角度来分析该策略对曼哈顿式网络的影响,通过对时间离散化,求解短时记忆密度的最优比例因子。仿真结果表明,通过采用所提出的短时记忆密度策略可以有效提高系统的运行效率,同时保证计算机处理的速度,交通网络的平均速度和到达率分别同比增长8.51%和9.28%,说明了所提出策略的有效性。
分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 针对现有水印嵌入和提取算法对滤波、压缩和噪声条件较为敏感的问题,提出了一种鲁棒的基于时空特征的压缩域数字视频水印嵌入和提取方法。提出的框架由一个公共密钥和一个私有密钥组成,用于阻止自我共谋攻击。算法对视频进行时空分析,并从压缩视频的时空特征中提取公共密钥,在本质上具有鲁棒性。首先,利用一个随机密钥从事先选取的块集合中选取候选块,进而确保水印框架的安全。然后基于压缩视频的时空特征选取出适合嵌入水印的4×4子块。最后,利用非零量化系数嵌入水印位。该水印框架允许视频位速率有限的增加,并且降低了计算的开销。实验结果显示,相比其他几种对比方法,提出的方法具有较强的鲁棒性和安全性。
分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 针对传统模板分析在实际攻击中的难解问题,重点研究了在图像识别领域具有优异特征提取能力的VGGNet网络模型,提出了一种基于VGGNet网络模型的模板攻击新方法。为了防止信号质量对模型准确率带来较大影响,采用相关性能量分析方法对采集到的旁路信号质量进行了检验;为了适应旁路信号数据维度特征,对网络模型结构进行适度调整;在网络训练的过程中,对梯度下降速率较慢、梯度消失、过拟合等问题进行了重点解决,并采用五折交叉验证的方法对训练好的模型进行验证。最终实验结果表明,基于VGGNet模型的测试成功率为92.3%,较传统的模板攻击效果提升了7.7%。
分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 针对阈值和阈值函数的调节参数取值问题,提出一种基于人工蜂群优化算法的带参新阈值函数的信号去噪算法。首先,验证带参新阈值函数的连续性、高阶可微性、参数可调性;其次,根据最小均方误差(MSE)策略,利用人工蜂群优化算法优化各分解层的阈值和调整参数,得到最优去噪信号。最后,利用信噪比(SNR)、MSE指标验证信号的去噪效果。实验结果表明:人工蜂群优化算法选取的阈值参数和新小波阈值函数可以有效地对带噪信号去噪。
分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 车车(V2V)通信系统的性能取决于无线信道的特征,因此采用合适的模型来刻画通信信道尤为重要。针对街道3D散射环境下的车载通信信道,考虑到道路两边高楼、树木等散射体,且收发两端处于移动状态,采用多天线技术,建立椭圆柱散射模型。运用几何分析法,推导了时间自相关函数(ACF)、空间互相关函数(CCF),比较视距(LOS)和非视距(NLOS)情况下ACF和CCF的差异,验证仿真方法的可行性;研究了信道容量在不同天线阵列和散射环境下的区别,突出了3D模型更加精确。测量结果与理论分析的一致性表明本文3D模型的可用性,拓宽了车载通信系统的研究。
分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 针对当前无线频谱资源稀缺和利用率低的问题,提出一种基于二进制烟花优化算法的频谱分配方法。每个烟花个体进行分布式爆炸搜索,并对最优烟花的爆炸半径采用改进公式动态更新;在变异环节中,针对粒子间信息交流不足的缺点,引入遗传算法的交叉变异算子,进一步增强种群多样性;对选出的最优个体使用Metropolis准则进行模拟退火扰动,避免陷入局部最优。仿真实验表明,二进制烟花优化算法在认知无线网络的频谱分配中具有寻优精度高,收敛速度快的特点,较好地实现网络效益和用户比例公平性的最大化。
分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 当干扰从雷达的主瓣方向进入时,采用自适应波束形成算法会导致主瓣波束变形、偏移等问题。针对干扰从雷达主瓣进入的问题,提出了一种对发射波形设计的抗干扰方法。当发射经Frank编码后的信号,利用Frank编码的正交性,构造出匹配滤波器和阻塞滤波器,分别将接收到的数据通过两滤波器,得到两路信号,然后利用自适应对消的方法将干扰抑制掉,从而达到抑制主瓣干扰的目的,通过仿真验证了利用波形设计的方法可有效抑制从主瓣进入的干扰。
分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 针对移动互联网流量识别问题,基于多项性能评估指标,分析K-均值和谱聚类算法在不同特征集合或不同识别目标的流量数据集上的聚类性能;并提出基于多特征集合的集成聚类方法。比较分析实验表明,相同聚类方法在不同特征集合或不同识别目标数据集上性能有所不同,集成聚类方法能够有效提高利用单个特征集合的聚类方法的性能。进一步将集成聚类方法应用于App关联分析,分析结果可为移动App的划分和用户行为分析提供客观依据。
分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 针对如今高校招生人数扩张所伴随而来的高校排课资源紧张的现象进行了研究,提出了一种基于关联规则的排课优化算法(SH-AP算法)来优化高校排课。SH-AP算法将关联规则算法应用到排课过程中,通过对高校学生选课数据进行关联规则的挖掘,找出需要排课的课程之间的关联规则,之后SH-AP算法再将已经挖掘出的课程间关联规则应用到排课系统中,对高校排课进行优化。实验最终得到课程间关联规则的数据,并为高校提供人性化的排课。根据研究与对比表明SH-AP算法在对排课的合理化与人性化上有很好的优化效果,帮助学校在进行排课的时候,考虑课程时间地点冲突问题的同时,对学生的需求进行满足。
分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 针对微阵列基因表达数据高维小样本、高冗余且高噪声的问题,提出一种FCBF特征选择和集成优化学习的分类算法FICS-EKELM。首先使用快速关联过滤方法FCBF滤除部分不相关特征和噪声,找出与类别相关性较高的特征集合;其次,运用抽样技术生成多个样本子集,在每个训练子集上利用改进乌鸦搜索算法同步实现最优特征子集选择和核极限学习机KELM分类器参数优化,然后基于基分类器构建集成分类模型对目标数据进行分类识别,此外运用多核平台多线程并行方式进一步提高算法计算效率。在六组基因数据集上的实验结果表明,不仅能用较少特征基因达到较优的分类效果,并且分类结果显著高于已有和相似方法,是一种有效的高维数据分类方法。
分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 针对目前反向计算模型还无法实现对建筑室内边界对流换热量进行反向计算这一制约性差距,采用温度贡献率方法,将边界对流换热量与室内测点温度之间表示成因果关系的温度贡献因子矩阵,基于计算流体力学,将最小二乘与Tikhonov正则化方法相结合,建立依据室内数个测点的离散温度求解边界对流换热量的反问题数学模型。应用三维通风空腔和某建筑内一间办公室进行实验验证,模型求解值与实测值的均方根差均小于80%,结果表明反向计算模型可以准确对室内边界对流换热量进行求解。
分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 在电动汽车换电站选址问题中,用户充电需求是重要的输入参数,而需求受到技术发展、电动汽车保有量、国家相关政策等因素的影响,通常较难准确预测。本文假设交通网络上用户需求是不确定的,利用基约束鲁棒优化方法提出基于用户路径流量不确定的换电站选址鲁棒模型,并将鲁棒模型转化为等价的线性规划。最后应用Nguyen-Dupius网络作为数值算例进行分析,结果表明当解的鲁棒水平较低时,适当增加选址成本,可以较大程度地提高解的鲁棒性。同时,对模型的重要参数作灵敏性分析。随着鲁棒水平的提高,换电站选址成本对路径流量的波动越来越敏感,续航里程的改变对换电站选址策略影响较大。
分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 为解决传统协同过滤推荐算法中存在的数据稀疏、冷启动以及推荐结果缺乏多样性等问题,提出一种融合社交网络与关键用户的协同过滤推荐算法。该算法在用户-项目评分矩阵基础上,融合用户社交网络信息得出社交信任矩阵,融合关键用户信息得出关键用户评分矩阵。利用三大评分矩阵,分配不同的权重比例,共同来预测用户对于目标项目评分。针对海量数据问题,采用Spark分布式集群实现该算法的计算并行化。实验结果表明,该算法能够有效缓解数据稀疏问题,提高处理速度和推荐准确度。
分类: 计算机科学 >> 计算机科学的集成理论 提交时间: 2018-07-09 合作期刊: 《计算机应用研究》
摘要: 如何有效利用多核提供的丰富晶体管资源对串行程序的执行进行加速是当前研究中的热点问题。线程级推测技术(thread-level speculation,TLS)旨在充分利用多核资源,最大化地开发出串行代码中存在的潜在并行性。目前TLS技术已经在多种串行应用的并行化工作中得到有效利用,但嵌入式应用程序仍未在推测并行化方面进行有效的分析。因此,本文选取了8个具有代表性的嵌入式应用,对其在循环级推测并行化中的性能提升潜力和运行时特征(数据依赖、线程粒度和并行覆盖率)进行探讨。实验结果表明:a)利用线程级推测并行化嵌入式应用的加速效果优于指令级并行技术,实验中的最大加速比达到了13.29;b)在嵌入式应用领域,该技术可以有效利用4到8核的计算资源。