2024年8月16日,2024中关村论坛系列活动——第十九届图像图形技术与应用学术会议(IGTA2024)在北京西郊宾馆隆重召开。本届大会由北京图象图形学学会主办,北京师范大学及中关村国际会展运营管理有限公司联合承办,北京市科学技术协会支持,共同打造了一场图像图形领域的学术盛宴。来自图像图形领域学术界、产业界同仁300余人齐聚一堂,纵论图像图形学科前沿,探讨产业发展方向,促进产学研各方协同发展。开幕式由大会组织委员会主席、北京图象图形学学会秘书长、北京理工大学教授刘越主持。刘越教授致辞大会主席、北京图象图形学学会理事长、北京理工大学王涌天教授在致辞中指出,图像图形技术已实现全方位飞跃式的发展,广泛应用于交通、医疗、军事、安防、社会治理等关键领域,对国家安全与民生福祉具有重要作用。IGTA2024会议聚焦AIGC、具身智能、数字人、医学影像及工业视觉等前沿主题,旨在为科研人员提供高端的学术研讨平台,促进思想交流和智慧碰撞。作为学会的重要学术活动,IGTA系列会议已成功举办十八年,本届会议规模扩大,希望通过此平台深化行业交流,激发更多创新思维,推动图像图形技术的快速发展。大会主席王涌天教授致辞大会主席、北京师范大学黄华教授详细介绍了大会的基本情况、筹备历程和亮点。本次大会设置了2场特邀报告、1场技术报告、6场论坛,1场培训研讨会。会议邀请了王振常院士和来自美国雪城大学徐瑞鸽Rebecca教授进行特邀报告,并设置了机器具身交互智能论坛、人体动作理解与生成前沿论坛、数字人与内容生成论坛、工业视觉技术与应用论坛、医学影像智能分析与手术导航论坛和多模态大模型论坛六个专题学术论坛。会议还特设了圆桌论坛等多种交流环节。聚焦前沿热点及趋势,交流领域发展新思路,深入呈现图像图形领域学术研究、技术创新与行业应用的最新成果。大会主席黄华教授介绍大会筹备情况开幕式上颁发了北京图象图形学学会“最美女科技工作者”、“优秀博士论文奖及优秀导师奖”、“优秀博士提名论文奖及优秀导师提名奖”、“优秀硕士论文奖及优秀导师奖”、“优秀硕士论文提名奖及优秀导师提名奖”、“第十三届APMCM亚太地区大学生数学建模竞赛一、二、三等奖”。颁奖环节在随后的特邀报告环节,中国工程院院士、首都医科大学附属北京友谊医院王振常教授做了题为《医学影像的现状和创新》的精彩报告。主要介绍了医学影像在健康体检、亚健康检出、疾病治疗和康复评价等方面发挥的积极作用,深入浅出地讲解了医学影像在数据采集的数字化、数据显示的实时化、数据传输的网络化、数据使用的共享化、数据处理的智能化、数据储存的永久化、分辨能力的显微化、影像观察的多维化、功能影像的临床化、代谢影像的定量化、分子影像的可视化、影像诊断的智能化、影像类别的融合化、影像知识的全面化等方向上的重大进展。王振常院士作特邀报告在随后的技术报告环节举行了北京超算百万机时算力基金启动仪式,学会理事长王涌天教授和北京超算品牌负责人刘芳代表双方进行签约。北京图象图形学学会与北京超算共同发起面向学会会员的“百万机时算力基金”科研公益活动,积极推进算力服务生态链的产学研合作与科研成果转化,用实际行动践行“提高科研生产效率,降低企业研发成本,为国家科技创新贡献力量”的使命担当。北京超算解决方案架构师王小磊做了题为《算力服务加速数字人与内容生成技术创新发展》的技术报告。探讨了在数字人与内容生成技术日新月异的今天,算力服务如何为数字人技术提供强大的支撑,推动其在交互与内容生成等方面的更进一步进展。以及如何通过算力选型和优化设计等算力服务,实现算力资源利用率的提升,助力更高效、更逼真的内容创作。展望未来,算力服务的持续升级将为数字人与内容生成技术带来无限可能,助力各行各业实现数字化转型与创新发展。北京图象图形学学会与北京超算百万机时算力基金启动仪式美国雪城大学徐瑞鸽(Rebecca Ruige Xu)教授做了题为《Ethical Dimensions and Creative Collaborations of AI in Art and Design》的特邀报告。针对AIGC的伦理挑战,从算法偏见、文化表征和创造性工具的民主化等角度,通过个人经历和哲学思考,探讨了人工智能技术如何重塑艺术表达的界限,挑战传统的作者和原创性观念,通过跨学科的视角分析这些主题,激发对数字增强世界中创造力未来的批判性论述,同时重点介绍了道德意识和协作创新在塑造人工智能驱动的艺术和设计实践中的关键作用。美国雪城大学徐瑞鸽(Rebecca Ruige Xu)教授作特邀报告分论坛照片8月18日第十九届图像图形技术与应用学术会议(IGTA2024)圆满落下帷幕,会议期间专家学者和产业界同仁深入探讨图像图形学科最新进展,共话图像图形学术研究与技术创新趋势,共同开拓图像图形学科发展新局面。
2022年11月12日至14日,第四届亚洲触觉会议AsiaHaptics2022在北京市友谊宾馆成功举办。AsiaHaptics是触觉领域的四大国际会议之一,是以交互式演示为特色的触觉国际学术会议,自创办以来首次在中国举办。本次会议由北京航空航天大学、北京图象图形学学会、IEEE触觉技术委员会、IEEE计算机学会、日本虚拟现实学会联合主办,旨在展示国内外触觉领域的最新研究成果,为触觉领域同仁提供国际交流的平台。为有效应对新冠疫情对于国际学术交流的挑战,本次会议采取“一主三副同步、线上线下联动”的组织和参会形式,在中国北京设立主会场,在中国南京、日本东京、韩国大田分别设立分会场。来自中国北京主会场的信号向全球直播,面向全球线上观众免费开放,创新突破了地域限制,服务相关领域学者尽享学术交流。本次大会由北京航空航天大学王党校教授、东南大学宋爱国教授共同担任大会主席,得到了世界各地的触觉领域各学术组织、研究学者和工业界同仁的广泛关注和支持。会议由北航虚拟现实技术与系统全国重点实验室和北航机械工程及自动化学院承办,由中国计算机学会人机交互专业委员会和虚拟现实与可视化技术专业委员会协办。浓郁秋色中,来自清华大学、北京大学、北京航空航天大学、东南大学、厦门大学、大连理工大学、中科院软件研究所、之江实验室等全国各地高校和研究机构的触觉领域学者汇聚主会场,来自日本、韩国、美国、意大利、德国、俄罗斯、阿联酋、瑞士、中国香港等国家和地区的权威专家、研究学者、工程技术人员和企业代表通过线上线下结合的方式参加了本次会议,共同推进触觉领域的学术研究和产业应用,向全球展示触觉领域中国学者的成果和贡献。在大会开幕式上,中国工程院院士、北京航空航天大学赵沁平教授,北京图象图形学学会理事长、北京理工大学王涌天教授,AsiaHaptics会议创始人、日本筑波大学Hiroo Iwata教授和韩国KAIST大学Dong-Soo Kwon教授等国内外专家发表致辞,表达了对本次大会成功召开的祝贺和对近年来中国触觉领域研究成果的充分肯定。2中国工程院院士赵沁平教授致辞3北京图象图形学学会理事长王涌天教授致辞4日本筑波大学Hiroo Iwata教授致辞5韩国KAIST大学Dong-Soo Kwon教授致辞会议邀请了中国科学院院士、北京纳米能源与系统研究所王中林教授,IEEE Fellow、美国普渡大学Hong Z. Tan教授和IEEE Fellow,IEEE Transactions on Haptics主编、意大利锡耶纳大学Domenico Prattichizzo教授作主题报告。王中林院士介绍了摩擦电纳米技术的基本理论、关键技术以及在自供电电触觉交互系统中的应用,如物联网、环境监测、人机交互等,将有力赋能未来触觉技术。6中国科学院院士王中林教授作主题报告普渡大学Hong Z. Tan教授分享了设计触觉符号的独到见解,介绍了一种用于传递文本信息的触觉交流系统,提供了使用信息理论框架实现在皮肤上传输符号的设计准则和实现方法,展示了使用触觉显示系统传输信息的可能性,为基于触觉模态的通讯和协作研究提供了启发。7美国普渡大学Hong Z. Tan教授作主题报告Domenico Prattichizzo教授介绍了可穿戴触觉技术面临的挑战性难题,针对两种新的应用提出了创新性解决思路。结合机器人技术和触觉设备,推动交互的边界从扩展现实到物理环境,并通过穿戴式人机界面同时控制人类和机器肢体,提高用户在协作中的控制准确性和参与度,表现出触觉技术在未来元宇宙时代的巨大应用前景。8意大利锡耶纳大学Domenico Prattichizzo教授作主题报告会议设立三场新锐技术分享论坛,14场学术、技术报告,针对触觉技术与机器人的融合、元宇宙的应用以及工业用途三个研究方向,报告人覆盖学界知名学者和业界主要公司。会议邀请东南大学宋爱国教授、清华大学孙富春教授、清华大学徐迎庆教授、中科院自动化研究所侯增广研究员、吉林大学孙晓颖教授、中科院软件研究所田丰研究员、香港城市大学于欣格教授、韩国KAIST Jee-Hwan Ryu教授、韩国庆熙大学Seokhee Jeon教授等中外学者和Barrett Technology、Force Dimension 、埃斯顿医疗、数字栩生、飞宇星电子等触觉领域相关国内外企业的代表进行精彩报告。9清华大学孙富春教授作报告10清华大学徐迎庆教授作报告11中科院软件研究所田丰研究员作报告12国内外学者线上报告(6合一)作为AsiaHaptics会议的传承亮点,本次会议以灵动的现场演示、论文海报展示、快闪式报告等多种形式展示了39项触觉尖端研究。尤其是本次会议的特色——交互式演示环节,现场提供了穿戴式、屏幕式等各类触觉技术体验;展示了触觉在教育、文旅、医学、养老助残等多领域在内的发展前景,集视、听、触、感等多模态体验为一体,提供虚实融合的全新体验。现场交互式演示的形式,为参会者提供了亲身体验最新触觉交互硬件及多模态交互系统的平台,加强了开发者及体验者的现场沟通交流,吸引了众多专家学者和参会者通过实际操作体验中,体会了虚拟触觉的美妙,线上线下频频点赞。13-16参会者体验触觉交互系统及现场交流与此同时,在中国南京、日本东京和韩国大田分会场,各地参会学者聆听主会场报告并进行在线学术交流。日本东京分会场,超过100名日本学者参加会议,超过30项触觉相关研究在现场进行交互式展示和体验。韩国大田分会场,近100名学者参加,十余项触觉相关研究也在同时进行现场与网络的交互式展示和体验。17中国南京分会场18日本东京分会场19韩国大田分会场本次大会共有来自中国、日本、韩国、德国、俄罗斯、阿联酋等多个国家的46篇论文和77项展示投稿,最终17篇论文和39项展示被大会录用。投稿经过组委会评选,来自俄罗斯Skolkovo科学技术研究院团队的论文DeltaFinger: a 3-DoF wearable haptic display enabling high-fidelity force vector presentation at a user finger获得本届大会最佳论文奖,来自清华大学等高校的3个团队获得最佳论文提名奖。来自北京航空航天大学团队的展示Social companionship and diagnosis system for children with autism: a VR system with force and temperature feedback获得最佳展示奖,来自北京大学等高校的5个团队获得最佳展示提名奖,完整获奖名单可查阅会议官网。在大会闭幕式现场,组委会成员北京大学陈立翰副教授和大连理工大学刘倩副教授为获奖团队颁奖。20组委会成员陈立翰副教授为最佳论文颁奖21组委会成员刘倩副教授为最佳展示颁奖在元宇宙技术快速发展之际,AsiaHaptics 2022备受触觉、人机交互、虚拟现实、机器人技术等学术界和产业界的关注,全球万余观看了大会直播。大会吸引了华为终端有限公司、瑞士Force Dimension、埃斯顿医疗、红京鸟力维、夏貘科技、众绘虚拟现实、联博智业科技、飞宇星电子、诺亦腾科技等相关企业赞助及参加工业展示,促进触觉领域的学术成果的深度转化应用。本次会议通过线上线下一体联动的形式,为新冠肺炎疫情背景下召开国际学术会议,开展国际学术交流探索了新风格和新方法。22-23企业展览参观体验 当今世界进入了人机物三元融合的时代,AsiaHaptics 2022的胜利召开将有力推动中国触觉领域的发展,通过与亚太及全球的交流,展现了触觉领域的中国声音和中国力量。为我国触觉领域立足世界科技前沿,在虚拟现实、人机交互和机器人等领域的研究和应用注入创新活力;在新冠疫情背景下,为触觉技术走进千家万户,面向人民生命健康,服务医疗、教育、养老等国民经济主战场提供有力支撑;推动我国触觉领域的研究和发展紧贴国家战略需求,为建设世界科技强国做出更大贡献。 更多关于AsiaHaptics 2022的信息请前往http://www.asiahaptics2022.com/ AsiaHaptics 2022会议全程直播提供回放服务,供广大同仁回顾学习,回放视频请查看https://www.koushare.com/topicIndex/i/asiahaptics2022
显著性目标检测能够减少后续视觉任务的数据处理量,当目标的形状轮廓或色彩纹理组成复杂时,准确地检测出完整的显著性目标是一项具有挑战性的工作。专家推荐本文提出了一种背景吸收的马尔可夫显著性目标检测方法,能够克服原有方法在吸收节点选择、结果等方面的缺陷,在3个不同类型的公开数据集上与多种现有方法的比较实验表明,整体上本文方法在PR曲线、F值以及视觉效果上均有明显的优势。论文亮点1、将原始图象分割成不同数量的超像素块并筛选出合适的边界,分别基于边界节点吸收和背景节点吸收计算获得显著图,能够适应复杂场景得到鲁棒的结果。 2、提出了一种基于边界选择、背景节点选择的多层图融合模型,使得最终获得的显著图具有更好的显著性表达能力。论文方法在SLIC分割的基础上,首先通过差异化筛选去除差异较大的边界,选择剩余三条边界上的节点进行复制作为马尔可夫链的吸收节点,通过计算转移节点的吸收时间获得初始的显著图,然后从初始显著图中选择背景可能性较大的节点进行复制作为吸收节点,再进行一次重吸收计算获得显著图,并对来自不同数量超像素块分割结果导出的多层显著图进行融合获得最终的显著图。图1 本文方法的流程图实验结果实验在ASD、DUT-OMRON和SED3个数据集上,对比了现有的12种方法。ASD数据集包含1 000幅自然图像;DUT-OMRON数据集中有5168幅具有复杂背景且显著目标大小不一的图片;SED数据集中有200幅具有挑战性的图像。设置初始的边界选择时的参数超像素个数为m=250,获取背景吸收节点时的阈值t=0.015。 图2显示了多种方法在ASD数据集上的PR曲线和F值结果。图3和图4是在DUT-OMRON数据集和SED数据集进行对比的结果。从PR 曲线和F值结果可以看出,在ASD和DUT-OMRON数据集上,PR曲线和F值均是最高的,SED数据集中,PR曲线是最好的,F值略低于MC方法,但整体而言,本文算法优于其他12种现有的算法。 在图5中给出在3种不同的数据集上,各种算法的视觉比较,从图5可以看出本文的显著图结果在视觉效果上能够更好地突出整个目标,从直观上来看,本文算法优于其他12种算法。 图2 多种算法在ASD数据集上PR曲线与F值比较 图3 多种算法在DUT-OMRON数据集上PR曲线与F值比较 图4 多种算法在SED数据集上PR曲线与F值比较 图5 在3种数据库上不同方法的视觉比较 第一作者 蒋峰岭,现为中国科学技术大学模式识别与智能系统专业博士研究生,目前主要研究方向为计算机视觉。邮箱:fljiang@mail.ustc.edu.cn 通信作者 孔斌,研究员,博士生导师。中科院合肥智能机械研究所仿生视觉实验室负责人。任中国图象图形学学会理事,中国人工智能学会智能机器人专业委员会委员,安徽省人工智能学会理事。多年来一直从事图象处理、计算机视觉相关的研究工作,获中科院科技进步二等奖一项,发表论文40余篇,EI收录30多篇,申请国家发明专利10项。先后参加和承担国家攻关、国家自然科学基金、国家863、973等以及中科院下达和地方委托的科研项目二十多项。目前,主要研究方向为智能机器人环境感知、工农业机器视觉应用、仿生计算机视觉等。邮箱:bkong@iim.ac.cn.INTRODUCTION实验室介绍中国科学院合肥智能机械研究所是中国科学院合肥物质科学研究院的重要研究单元之一,致力于在仿生感知、信息获取、智能农业信息系统、智能检测与控制、微纳米技术、先进制造、安全系统等重要领域为国家做出基础性、战略性和前瞻性的研究和贡献。建所近四十年来,智能所先后承担了国家自然科学基金、“863”计划、“973”计划、国际科技合作计划、中科院、省部及地方科技攻关等课题近千项,取得了一大批重要科技成果,获得了国家科学技术进步二等奖、联合国世界信息峰会大奖、安徽省科技进步一等奖等100多项科技奖,并承办中国自动化学会核心学术期刊《模式识别与人工智能》。作者所在研究团队主要研究方向为智能机器人环境感知、工农业机器视觉应用、仿生计算机视觉等。近年来参加国家自然科学基金重大研究计划重点项目和集成项目、中国科学院战略性先导科技专项课题等的研究,参与研制的“智能先锋号”无人车在国家自然科学基金委员会主办的“中国智能车未来挑战赛”多次获得优秀成绩。 引用格式Jiang F L, Zhang H T, Yang J, Kong B . Image saliency detection based on background-absorbing Markov chain[J]. Journal of Image and Graphics, 2018, 23(6): 857-865. [蒋峰岭, 张海涛, 杨静, 孔斌. 背景吸收的马尔可夫显著性目标检测[J]. 中国图象图形学报, 2018, 23(6): 857-865.]DOI: 10.11834/jig.170492原文链接http://www.cjig.cn/html/jig/2018/6/weixin/20180608.htm近年国内外优秀的视觉显著性检测算法1、Itti等人[1]提出基于Koch生物识别框架,提取了多尺度的亮度、颜色、方向特征,采用中央周边差操作构造特征图,再将特征整合后突出显著性区域;2、Harel等人[2]提出了一种基于图的视觉显著性检测模型;3、Hou等人[3]提出了一个频谱残差模型(SR方法)来计算显著性;4、Jiang等人[4]提出的基于马尔可夫链的方法(MC方法)中,关注节点在马尔可夫链上的随机游走过程,根据转移节点到吸收节点的吸收时间的不同,获得超像素块的显著值;5、Qin等人[5]提出了基于元胞自动机的方法;6、Tu等人[6]引入最小生成树的方法,可以获得一个实时显著性检测方法。[1] Itti L, Koch C, Niebur E. A model of saliency-based visual attention for rapid scene analysis[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(11): 1254–1259. [DOI:10.1109/34.730558][2] Harel J, Koch C, Perona P. Graph-based visual saliency[C]//Proceedings of the 19th International Conference on Neural Information Processing Systems. Kitakyushu, Japan: ACM, 2006: 545-552. [DOI:10.1.1.70.2254][3] Hou X D, Zhang L Q. Saliency detection: a spectral residual approach[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Minneapolis, Minnesota, USA: IEEE, 2007: 1-8. [DOI:10.1109/CVPR.2007.383267][4] Jiang B W, Zhang L H, Lu H C, et al. Saliency detection via absorbing Markov chain[C]//Proceedings of IEEE International Conference on Computer Vision. Sydney, NSW, Australia: IEEE, 2013: 1665-1672. [DOI:10.1109/ICCV.2013.209][5] Qin Y, Lu H C, Xu Y Q, et al. Saliency detection via cellular automata[C]//Proceedings of IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA, USA: IEEE, 2015: 110-119. [DOI:10.1109/CVPR.2015.7298606][6] Tu W C, He S F, Yang Q X, et al. Real-time salient object detection with a minimum spanning tree[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA: IEEE, 2016: 2334-2342. [DOI:10.1109/CVPR.2016.256]