个人简介
基本情况 姓名:杨鸿武 性别:男 出生日期:1969.10.2 党派:中共党员 籍贯:甘肃合作 工作单位:西北师范大学物理与电子工程学院 地址:甘肃省兰州市安宁东路967号 电话:18193125028
教育背景及主要工作经历 教师简介: 西北师范大学物理与电子工程学院教授、博士生导师,清华大学计算机系博士。甘肃省杰出青年基金获得者。“甘肃省智能信息技术与应用工程研究中心”主任、“互联网教育数据学习分析国家地方联合工程实验室”副主任。省级重点学科“电子科学与技术”学科带头人、校级特色学科“电子科学与教育技术学科”负责人。中国计算机学会语音对话与听觉专业组委员、中国声学学会语言、音乐和听觉分会委员,IEEE、ACM、IEICE、中国计算机学会会员。先后前往日本名古屋工业大学、澳大利亚皇家墨尔本理工大学、香港中文大学访学。 主要从事语言声学和语音信号处理、跨语言智能信息处理等方面的研究工作。主持国家自然科学基金面上项目1项、地区项目2项,甘肃省杰出青年基金项目1项,甘肃省高等学校创新团队项目1项,其他省部级项目3项。获甘肃省高等学校优秀科研成果奖1项、教育部科学技术进步奖1项。发表SCI、EI检索论文20余篇,申请和获得国家发明专利6件、实用新型专利和计算机软件著作权20余件,出版著作2部。
教育背景: 2003.9~2007.7:清华大学计算机系,博士研究生 1992.9~1995.6:西北师范大学物理系,硕士研究生 1988.9~1992.6:西北师范大学物理系,本科
研究工作经历: 2016.9~今:西北师范大学博士研究生导师 2014.9~2015.8:中组部“西部之光”访问学者 2013.01~今:甘肃省重点学科“电子科学与技术”一级学科带头人 2011.11~2012.11:日本名古屋工业大学计算机系外国研究学者 2011.08~2011.10:澳大利亚皇家墨尔本理工大学校双语教学骨干教师培训 2009.08~今:西北师范大学物理与电子工程学院教授 2009.04、11~12:香港中文大学系统工程与工程管理学系访问学者 2006.02~2006.07:香港中文大学系统工程与工程管理学系研究助理 2005.01~今:西北师范大学物理与电子工程学院硕士研究生导师 2003.12~2009.07:西北师范大学物理与电子工程学院副教授 1998.08~2003.11:西北师范大学物理与电子工程学院讲师 1995.07~1998.07:西北师范大学物理系助教
个人荣誉 西北师范大学2016年优秀党务工作者; 2012年入选第二届甘肃省杰出青年基金计划; “挑战者杯”甘肃省大学生课外学术科技作品竞赛优秀指导教师。
教学工作 本科教学: 承担本科生的《c程序设计》、《数据结构》、《计算机网络》、《嵌入式操作系统》、《学科前沿》等课程的教学工作,指导本科生的学年论文和毕业论文。 研究生教学: 承担研究生的《人工智能》、《语音信号处理》、《程序设计》、《模式识别》等课程的教学工作。
科研项目 “智能双语教学协同创新团队”,甘肃省高等学校协同创新团队项目(2017C-03),2017.9-2020.12 “基于深度学习的汉藏双语语音合成的研究”,国家自然科学基金地区项目(11664036),2017-2020,主持; “汉藏双语个性化语音合成中的语言建模的研究”,国家自然科学基金项目(61263036),2013-2016,主持; “汉语文语转换中语义与表现力联合建模”,国家自然科学基金面上项目(60875015),2009-2011,主持; “藏汉双语跨语言语音合成的研究”,甘肃省杰出青年基金计划项目(1210RJDA007),2013-2015,主持; “沿丝绸之路兰银官话方言声学建模的研究”,甘肃省自然科学基金项目(1107RJZA112),2011-2013,主持; “基于语义的汉语表现力语音韵律建模的研究”,教育部科学研究重点项目(208146),2008-2010,主持; “兰州方言的感知分析与声学建模的研究”,甘肃省教育厅研究生导师项目(0801-04),2008-2010,主持; “高表现力语音韵律建模的研究”,西北师范大学科研骨干培育项目(NWNU-KJCXGC-03-42),2007-2009,主持; “汉藏双语跨语言语音转换中的关键技术研究”,国家自然科学基金项目(61262055),2013-2016,第一完成人; “情感计算理论与方法研究”,国家自然科学基金重点项目(60433030),2005-2009,主要完成人; “汉语双语可视语音合成中音视频联合建模的研究”,国家自然科学基金NSFC-RGC(中国香港)联合基金项目(60418012),主要完成人。
获奖情况 1.“汉藏双语语音合成”,甘肃省高等学校科研优秀成果奖,三等奖,甘肃省教育厅,2016KYCG-206;2016.10 2.“多模态的多语种语音、语言交互的研究与应用”,教育部科学技术进步奖,二等奖,教育部,2009-280;2010.1 3.“构建电子信息工程专业开放式创新实践平台,培养工科学生创新能力和实践能力”,甘肃省教学成果奖,教育厅级,甘肃省教育厅,20090369;2010.5
科研成果
申请和获得的专利: 杨鸿武,吴沛文.一种跨语言情感语音合成方法及系统[P].甘肃:CN201710415814.5,2017-08-29.(发明专利,公开) 杨鸿武;王辉.一种基于ARM芯片的语谱分析装置[P].甘肃:CN201710338751.8,2017-07-28.(发明专利,公开) 杨鸿武,赵娜,冯欢,等.一种基于hmm的歌曲合成方法及装置[P].,甘肃:CN106971703A,2017.(发明专利,公开) 杨鸿武,王海燕,徐世鹏,等.汉藏双语语音合成方法及装置[P].甘肃:CN104217713A,2014-12-17.(发明专利,公开) 杨鸿武,安晓春.手势到汉藏双语语音转换方法及装置[P].甘肃:CN104538025A,2015-04-22.(发明专利,公开) 杨鸿武,张策,陆晓燕,等.藏语TTVS系统的实现方法[P].甘肃:201510649149.7.(发明专利,公开) 郭威彤,杨鸿武,甘振业,等.便携式室内空气质量快速检测仪[P].中国:CN201310587485.4,2014-2-19.(发明专利,授权) 杨鸿武,宋南.一种智能感控灯:,CN206894967U[P].2018.(实用新型专利,授权) 杨鸿武,宋南,甘振业等.一种智能花盆支架:,CN207152370U[P].2018.(实用新型专利,授权) 杨鸿武,王辉.一种基于ARM芯片的语谱分析装置:,CN206961516U[P].2018.(实用新型专利,授权) 杨鸿武,安艳玲,甘振业等.一种多功能智能晴雨伞:,CN207055017U[P].2018.(实用新型专利,授权) 杨鸿武,宋南.一种可无线调控的多功能数字时钟:,CN206301161U[P].2017.(实用新型专利,授权) 杨鸿武;吴沛文;朱小娜等.一种盲人智能语音辅助眼镜:,CN206102931U[P].2017.(实用新型专利,授权) 杨鸿武;智鹏鹏;甘振业等.一种语音智能行李箱:,CN206079382U[P].2017.(实用新型专利,授权) 杨鸿武,张帅,甘振业.一种基于FPGA的藏语语音合成装置:,CN206505717U[P].2017.(实用新型专利,授权) 杨鸿武;张帅;孔新杰等.一种基于FPGA的MLSA合成滤波器:,CN205789092U[P].2016.(实用新型专利,授权) 杨鸿武,吴沛文,朱小娜等.一种可远程控制的智能生态鸟笼:,CN205667226U[P].2016.(实用新型专利,授权) 杨鸿武*,张策,陆晓燕,等.一种基于改进式TAC的高精度时间间隔测量仪[P].甘肃:201520742600.5.(实用新型专利,授权) 杨鸿武*,白祖仕,甘振业.一种基于FPGA的语音手势转换装置[P].201520743955.6.(实用新型专利,授权) 杨鸿武*,白祖仕,甘振业,等.一种基于FPGA的方言保存装置[P].201520741997.6,2016.(实用新型专利,授权) 杨鸿武,王海燕,刘平和,等.儿童教学监护机器人[P].甘肃:CN203300127U,2013-11-20.(实用新型专利,授权) 甘振业,陈浩,杨鸿武.一种仰视读书支架[P].甘肃:CN204410025U,2015-06-24.(实用新型专利,授权) 杨鸿武,安艳玲.智能语音识别翻译软件.计算机软件著作权.2017SR206581,2017. 杨鸿武,齐芳堃,智鹏鹏等.汉语韵律预测系统.计算机软件著作权.2017SR086809,2017. 杨鸿武,吴佳欣.基于BLSTM的藏语孤立词的语音识别软件.计算机软件著作权.2017SR365609,2017. 杨鸿武,安晓春,杨艳珍.语音半自动标注系统.计算机软件著作权.2016SR028869,2016. 杨鸿武,智鹏鹏,甘振业等.方言标注系统.计算机软件著作权.2016SR323150,2016. 杨鸿武,吴佳欣.基于BLSTM的藏语拉萨方言的语音识别软件.计算机软件著作权.2016SR223291,2016. 杨鸿武,赵娜.基于关键词识别的语音到手势的转换系统.计算机软件著作权.2016SR229119,2016. 杨鸿武,赵娜,冯欢.基于HMM的歌词到歌声转换系统.计算机软件著作权.2016SR259346,2016. 杨鸿武,安晓春.语音编辑器软件.计算机软件著作权.2015SR290592,2016. 杨鸿武,张策.基于声韵母的藏语连续语音识别系统.计算机软件著作权,2015SR044288,2015. 杨鸿武,安晓春,甘振业.手势到汉藏双语语音转换系统.计算机软件著作权,2014SR196824,2014. 杨鸿武,郝东亮.面向统计参数的语音合成的标注生成系统.计算机软件著作权,2014SR154700,2014. 杨鸿武,王海燕,甘振业.汉藏双语语音合成系统.计算机软件著作权,2014SR110084,2014.
研究领域
语言声学和语音信号处理
学术兼职
“甘肃省智能信息技术与应用工程研究中心”主任 “互联网教育数据学习分析国家地方联合工程实验室”副主任 中国计算机学会语音对话与听觉专业组委员 IEEE会员、ACM会员、IEICE会员、中国计算机学会会员
近期论文
发表论文目录: WangL,YangH.TibetanWordSegmentationMethodBasedonBiLSTM_CRFModel[C]//InternationalConferenceonAsianLanguageProcessing,IEEE,2018. SongN,YangH,ZhangT.ADNN-basedframeworkforconvertingsignlanguagetoMandarin-Tibetancross-lingualemotionalspeech[C]//InternationalConferenceonAsianLanguageProcessing,IEEE,2018. ChenL,YangH,WangH.ResearchonDunganspeechsynthesisbasedonDeepNeuralNetwork[C]//InternationalSymposiumonChineseSpokenLanguageProcessing(ISCSLP),IEEE,2018. ZhangW,YangH,ZhiP.EmotionalspeechsynthesisbasedonDNNandPADemotionalstatemodel[C]//InternationalSymposiumonChineseSpokenLanguageProcessing(ISCSLP),IEEE,2018. SongN,YangH,ZhiP.Adeeplearningbasedframeworkforconvertingsignlanguagetoemotionalspeech[C]//Asia-PacificSignalandInformationProcessingAssociationAnnualSummitandConference,IEEE,2018. GuoW,YangH,GanZ.ADNN-basedMandarin-Tibetancross-lingualspeechsynthesis[C]Asia-PacificSignalandInformationProcessingAssociationAnnualSummitandConference,IEEE,2018. YangH,ZhangW,ZhiP.ADNN-basedemotionalspeechsynthesisbyspeakeradaptation[C]//Asia-PacificSignalandInformationProcessingAssociationAnnualSummitandConference,IEEE,2018. SongN,YangH,ZhiP.Towardsrealizingsignlanguagetoemotionalspeechconversionbydeeplearning[C]//InternationalConferenceofPioneeringComputerScientists,EngineersandEducators,Springer,Singapore,2018:416-430. SongN,YangH,WuP.AGesture-to-EmotionalSpeechConversionbyCombiningGestureRecognitionandFacialExpressionRecognition[C]//ThefirstAsianConferenceonAffectiveComputingandIntelligentInteraction,IEEE,2018. 宋南,吴沛文,杨鸿武.融合人脸表情的手语到汉藏双语情感语音转换[J].声学技术,2018,37(4):372-379. 智鹏鹏,杨鸿武,宋南.利用说话人自适应实现基于DNN的情感语音合成[J].重庆邮电大学学报(自然版),2018. WuP,YangH,GanZ.UsingMandarinTrainingCorpustoRealizeaMandarin-TibetanCross-LingualEmotionalSpeechSynthesis[C]//NationalConferenceonMan-MachineSpeechCommunication.Springer,Singapore,2017:109-121. LiuY,YangH,YanC,etal.OptimalPowerSplittinginaFull-DuplexWirelessPoweredNetworkwithaBidirectionalRelay[C]//InternationalConferenceonCommunicatinsandNetworkinginChina.Springer,Cham,2017:485-494. WuP,YangH,GanZ.TowardsRealizingMandarin-TibetanBi-lingualEmotionalSpeechSynthesiswithMandarinEmotionalTrainingCorpus[C]//InternationalConferenceofPioneeringComputerScientists,EngineersandEducators.Springer,Singapore,2017:126-137. 甘振业,陈浩,杨鸿武.结合EEMD与K-SVD字典训练的语音增强算法[J].清华大学学报(自然科学版),2017(3):286-292. 杨鸿武,张帅,丁朋程.基于FPGA的Mel倒谱系数提取方法设计与实现[J].仪表技术与传感器,2017(3):82-85. AnX,YangH,GanZ.TowardsRealizingSignLanguage-to-SpeechConversionbyCombiningDeepLearningandStatisticalParametricSpeechSynthesis[C]//InternationalConferenceofYoungComputerScientists,EngineersandEducators.Springer,Singapore,2016:678-690. ZhaoN,YangH.Realizingspeechtogestureconversionbykeywordspotting[C]//ChineseSpokenLanguageProcessing(ISCSLP),201610thInternationalSymposiumon.IEEE,2016:1-5. 郝东亮,杨鸿武,张策,等.面向汉语统计参数语音合成的标注生成方法[J].计算机工程与应用,2016,52(19):146-153. 赵娜,杨鸿武.基于关键词识别的语音到手势的转换[J].计算机工程与应用,2016,52(21):146-151. HongwuYang(*),KeiichiroOura,HaiyanWang,ZhenyeGan,KeiichiTokuda.UsingspeakeradaptivetrainingtorealizeMandarin-Tibetancross-lingualspeechsynthesis[J].MultimediaToolsandApplications,2015,74(22):9927-9942. HaoChen,ZhenyeGan,HongwuYang(*).RealizingspeechenhancementbycombiningEEMDandK-SVDdictionarytrainingalgorithm[C].Proc.9thInt.SymposiumonChineseSpokenLanguageProcessing(ISCSLP),2014.9.12-2014.9.14. HongwuYang(*),XiaochunAn,DongPei,YitongLiu.Towardsrealizinggesture-to-speechconversionwithaHMM-basedbilingualspeechsynthesissystem[C].Proc.2ndIEEEInternationalConferenceonOrangeTechnologies(ICOT),2014:97-100. HongwuYang(*),DongliangHao,HongyinSun,YitongLiu.Speechenhancementusingorthogonalmatchingpursuitalgorithm[C].Proc.2ndIEEEInternationalConferenceonOrangeTechnologies(ICOT),2014:97-100. XiaoyongLu,HongwuYang(*),AibaoZhou.ApplyingPADThreeDimensionalEmotionModeltoConvertProsodyofEmotionalSpeech[C].Proc.2ndIEEEInternationalConferenceonOrangeTechnologies(ICOT),2014:89-92. ZhenyeGan(*),ZhenwenWang,HongwuYang.RealizingTibetanLhasaspeechconcatenationsynthesissystemBasedonalargecorpus[C].Proc.2ndIEEEInternationalConferenceonOrangeTechnologies(ICOT),2014:93-96. ZhanfuAn,DongPei(*),HongwuYang,QuanzhouWang.Anewstrategyforimprovingtheself-positioningprecisionofanautonomousmobilerobot[C].Proc.2ndIEEEInternationalConferenceonOrangeTechnologies(ICOT),2014:85-88. GuoxingZhang(*),YunsongHua,YanwenShen,HongwuYang.TheSensitivityoftheFocusedUltrasonicMethodUsedinInclusionTestingoftheThickSteelSpecimen[J].AppliedMechanicsandMaterials,2014,455:253-260.(EI:20140117159365) HongwuYang(*),KeiichiroOura,ZhenyeGan,KeiichiTokuda.RealizingTibetanspeechsynthesisbyspeakeradaptivetraining[C].SignalandInformationProcessingAssociationAnnualSummitandConference(APSIPA),2013Asia-Pacific.IEEE,2013:1-4. GUOWei-Tong,YANGHong-Wu*,PEIDong,LIANGQing-Qing.ProsodyConversionofChineseNorthwestMandarinDialectbasedonFiveDegreeToneModel[J].JDCTA:InternationalJournalofDigitalContentTechnologyanditsApplication,2012,6(17):323-332. ManmanLi,HongwuYang*,WeitongGuo,DongPei,HongyingSun.EndpointDetectionofNoisySpeechusingEmpiricalModeDecomposition[J].JDCTA:InternationalJournalofDigitalContentTechnologyanditsApplication,2012,6(10):196-203. ManmanLi,HongwuYang*,ShuoYang.EndpointDetectionBasedonEMDinNoisyEnvironment[C].Proceedingsof6thInternationalConferenceonComputerScienceandConvergenceInformationTechology(ICCIT2011),2011,783-787,JejuIsland. JinlongLi,HongwuYang*,WeizhaoZhang,LianhongCai.Alyricstosingingvoicesynthesissystemwithvariabletimbre[C].Proc.2011ICAIC,pp186-193,2011. ZhiyongWu,HelenMeng,HongwuYang,LianhongCai.ModelingtheexpressivityofinputtextsemanticsforChinesetext-to-speechsynthesisinaspokendialogsystem[J].IEEETransactionsonAudio,SpeechandLanguageProcessing,2009,17(8):1567-1577. LIUYali,YANGHongwu*,ZHOUHui.SPEAKERIDENTIFATIONBASEDONEMD[C].Proc.IEEEIC-NIDC2009,Beijing,China,808-812,2009. YANGHongwu*,LIUYali,HUANGDezhi.SpeakerRecognitionBasedonWeightedMel-cepstrum[C].Proc.ICCIT2009,Seoul,Korea,200-203,2009. YANGHONG-WU*,MENGHELENM.,CAILIAN-HONG.ModelingtheAcousticCorrelatesofDialogACTforExpressiveChineseTTSSystem[C].Proc.CIICT2008,Sep.26-28,Beijing,IETPRESS,2008:49-53. YANGHONG-WU*,GUOWEI-TONG,LIANGQING-QING.ASpeakingRateAdjustableDigitalSpeechRepeaterforListeningComprehensioninSecondLanguageLearning[C].Proc.CSSE2008,Wuhan,Dec.12-14,Vol.5:893-896,IEEEPress,2008. XIELei,YANGHong-wu.DynamicBayesianNetworkInversionforRobustSpeechRecognition[J].IEICETransactionsonInformationandSystems,2007,E90-D(7):1117-1120. YANGHong-wu*,HUANGDe-zhi,CAILian-hong.WeightedMel-CepstralAnalysisofSpeechBasedonPsychoacousticModel[J].IEICETransactionsonInformationandSystems,2006,E89-D(12):2998-3001. YANGHong-wu*,MENGHelenM.,CAILian-hong.ModelingtheAcousticCorrelatesofExpressiveElementsinTextGenresforExpressiveText-to-SpeechSynthesis[C].Proc.InterSpeech2006,Pittsburg,USA,Sep.17-21,ISCAPress,2006:1806-1809. YANGHong-wu*,MENGHelenM.,WUZhi-yong,CAILian-hong.ModelingtheGlobalAcousticCorrelatesofExpressivityforChineseText-to-SpeechSynthesis[C].Proc.IEEE/ACL2006WorkshoponSpokenLanguageTechnology,Aruba,Dec.13-16,IEEEPress,2006:138-141. Hong-WuYANG*,Wei-TongGUO,DongPEI,Qing-QingLIANG.MandarinToLanzhouDialectConversionbasedonFiveDegreeToneModel[C].Proc.7rdISCSLP,Taiwan,2010,387-391. 安晓春,杨鸿武,甘振业.手语到普通话/藏语语音转换系统的实现[C]//全国人机语音通讯学术会议.2015. 王海燕,杨鸿武(*),甘振业,裴东.基于说话人自适应训练的汉藏双语语音合成[J].清华大学学报,2013,53(6):776-780. 郭威彤,杨鸿武(*),宋继华,顾香,甘振业。面向方言语音合成的文本分析的研究[J].计算机工程,2015,41(9):184-189. 赵涛涛,杨鸿武(*).结合EMD和加权Mel倒谱的语音共振峰提取算法[J].计算机工程与应用,2015,51(9):207-212. 徐世鹏.杨鸿武(*),王海燕.面向藏语语音合成的语音基元自动标注方法[J].计算机工程与应用,2015,51(06):199-203. 赵爱芳,裴东,王全州,杨鸿武,安占福,复杂环境中多信息融合的手势识别[J].计算机工程与应用,2014,50(05):180-184. 赵高超,杨鸿武,裴东,王全州.基于TMS320F2812的电机增量式PID控制系统[J].仪表技术与传感器,2014,(06):106-108+112. 杨鸿武(*),赵涛涛.一种基于加权Mel倒谱的语音信号共振峰提取算法[J].西北师范大学学报(自然科学版),2014,50(01):53-57. 鲁小勇,杨鸿武*,等.基于PAD三维情绪模型的情感语音韵律转换[J].计算机工程与应用,2013,49(5):230-235. 孙红英,杨鸿武*,陶中幸.语谱分析的FPGA实现[J].电子与信息学报,2011,33(5):1238-1243. 梁青青,杨鸿武*,郭威彤,裴东.一种基于语音识别和语速修改的语音复读系统[J].计算机工程,2011,37(5):288-290. 刘博,杨鸿武*,甘振业,郭威彤.利用SAMPA实现藏语的字音转换[J].计算机工程与应用,46(36):117-121,2011. 郭威彤,杨鸿武*,梁青青,裴东.普通话到西安话的韵律转换[J].计算机工程与应用,46(16):122-127,2011. 周小星,王安娜,孙红英,杨鸿武.基于压缩感知过程的语音增强[J].清华大学学报,2011,51(9):1252-1256. 李锦珑,杨鸿武*,梁青青,裴东,刘慧娟.基于GMM的歌曲Morphing算法[J].计算机工程,36(24):172-174+177,2010. 梁青青,杨鸿武*+,郭威彤,裴东,甘振业.利用五度字调模型实现普通话到兰州方言的转换[J].声学技术,2010,29(6):620-625. 李锦珑,杨鸿武*+,裴东,刘慧娟.歌词到歌曲转换系统的实现[J].计算机工程与应用,2010,Vol.46(16):124-126. 杨鸿武*,王晓丽,陈龙,裴东,郭威彤,蔡莲红.基于语法树高度的汉语韵律短语预测[J].计算机工程与应用,45(36):139-143+167,2010. 主编教材及专著: 杨鸿武,裴东.数字信号处理权威指南[M].人民邮电出版社,2012.1. 蔡莲红,杨鸿武,吴志勇.语音合成[M].机械工业出版社,2005.3.