大数跨境
0
0

IEEE TVCG-2025年11月-最新在线出版论文12篇

IEEE TVCG-2025年11月-最新在线出版论文12篇 AI新文
2025-11-23
0

由于微信公众号开始试行乱序推送,为了让您在第一时间获取AI新文,请将"AI新文"设为星标。


是什么使可视化图像变得复杂?

原标题:What Makes a Visualization Image Complex?

作者:Mengdi Chu; Zefeng Qiu; Meng Ling; Shuning Jiang; Robert S. Laramee; Michael Sedlmair

期刊:IEEE Transactions on Visualization and Computer Graphics

出版时间:2025/11/21

摘要:我们使用基于客观图像的度量来研究数据可视化中的感知视觉复杂度(VC)。我们通过一项大规模众包实验收集了VC得分,该实验涉及349名参与者和1800张可视化图像。然后,我们检查了这些分数如何与12个基于图像的度量对齐,这些度量跨越基于像素和统计信息理论(杂波)、颜色、形状和我们的两个新的基于对象的度量(有意义的颜色计数(MeC)和文本墨水比(TiR))。结果表明,低层边缘和高层元素都会影响可视化图像中的感知VC;角点的数量和不同的颜色是跨可视化的健壮度量。第二,特征拥塞是一种捕获颜色和纹理模式的统计信息理论度量,它是在具有相同连续颜色/纹理刺激的可视化中感知复杂度的最强预测因子;边缘密度有效地解释了节点链路图中的VC。此外,我们观察到文本的钟形曲线效应:增加TiR最初会降低复杂性,达到最佳点,超过该点,文本会增加VC。我们的量化模型也是可解释的,支持基于VisComplexity2K数据集的基于度量的解释,将计算度量与人类感知响应连接起来。


原文链接



TexGS-VolVis:通过纹理高斯溅射实现体积可视化的表达式场景编辑

原标题:TexGS-VolVis: Expressive Scene Editing for Volume Visualization via Textured Gaussian Splatting

作者:Kaiyuan Tang; Kuangshi Ai; Jun Han; Chaoli Wang

期刊:IEEE Transactions on Visualization and Computer Graphics

出版时间:2025/11/21

摘要:体积可视化(VolVis)的进步专注于通过生成具有视觉吸引力的渲染来揭示复杂的内部结构,从而从3D体积数据中提取见解。现有的VolVis方法探索了非照片级真实感渲染技术,以增强视觉通信的清晰度、表现力和信息性。虽然有效,但这些方法通常依赖于复杂的预定义规则,并且仅限于传输单个样式,从而限制了它们的灵活性。为了克服这些限制,我们提倡使用可微高斯基元与预处理的大型模型相结合来表示VolVis场景,以实现任意样式传输和实时渲染。然而,传统的3D高斯基元将几何体和外观紧密耦合,导致次优的样式化结果。为了解决这个问题,我们引入了TexGS-VolVis,这是一个用于VolVis的纹理高斯散斑框架。TexGS-VolVis采用2D高斯基本体,使用附加的纹理和着色属性扩展每个高斯,从而在推理过程中实现更高的质量、几何体一致的样式化和增强的照明控制。尽管有这些改进,但实现灵活和可控的场景编辑仍然具有挑战性。为了进一步增强样式化,我们开发了为TexGS-VolVis和2D-lift-3D分割定制的图像和文本驱动的非照片级真实感场景编辑,以实现具有细粒度控制的部分编辑。我们在各种体积渲染场景中对TexGS-VolVis进行了定性和定量评估,展示了其在效率、视觉质量和编辑灵活性方面比现有方法的优势。


原文链接



使用触觉图支持盲人和低视力个体对复杂视觉的理解和学习

原标题:Using Tactile Charts to Support Comprehension and Learning of Complex Visualizations for Blind and Low-Vision Individuals

作者:Tingying He; Maggie McCracken; Daniel Hajas; Sarah Creem-Regehr; Alexer Lex

期刊:IEEE Transactions on Visualization and Computer Graphics

出版时间:2025/11/21

摘要:我们研究了触觉图是否支持盲人和低视力(BLV)个体对复杂可视化的理解和学习,并提供了四种触觉图设计和一项访谈研究。可视化是传输数据的强大工具,然而BLV个人通常只能依赖辅助技术(主要是替代文本)来访问这些信息。先前的研究表明图表类型的心理模型对于解释这些描述的重要性,然而BLV个体没有办法基于可视化图像构建这样的心理模型。触觉图显示了在支持建立心理模型的过程中填补这一空白的希望。然而,关于触觉数据表示的研究大多集中在简单的图表类型上,并且不清楚它们是否也适用于科学出版物中发现的更复杂的图表。与两名BLV研究人员合作,我们设计了3D打印触觉模板图表,其中包含四种高级图表类型的探索说明:翻转图、小提琴图、聚集热图和刻面折线图。然后,我们对12名BLV参与者进行了一项访谈研究,比较使用我们的触觉模板是否改善了心理模型和对图表的理解,以及这种理解是否转化为通过交替文本体验的新数据集。主题分析表明,触觉模型支持图表类型的理解,是BLV个体的首选学习方法。我们还报告了参与者对触觉图设计的意见以及他们在BLV教育中的作用。


原文链接



TrajLens:交叉样本探索中构建细胞发育轨迹的视觉分析

原标题:TrajLens: Visual Analysis for Constructing Cell Developmental Trajectories in Cross-Sample Exploration

作者:Qipeng Wang; Shaolun Ruan; Rui Sheng; Yong Wang; Min Zhu; Huamin Qu

期刊:IEEE Transactions on Visualization and Computer Graphics

出版时间:2025/11/21

摘要:构建细胞发育轨迹是单细胞RNA测序(scRNA-seq)分析中的一项关键任务,能够推断潜在的细胞进展路径。然而,当前的自动化方法仅限于在单个样本中建立细胞发育轨迹,这就要求生物学家手动链接样本中的细胞,以构建考虑细胞空间动力学的完整跨样本进化轨迹。由于每对样本之间的复杂空间对应关系,该过程需要大量的人工努力。为了解决这一挑战,我们首先提出了一种基于GNN的模型来预测跨样本细胞的发育轨迹。然后,我们开发了TrajLens,这是一个视觉分析系统,支持生物学家根据预测的链接探索和细化细胞发育轨迹。具体来说,我们设计了一种可视化,该可视化集成了多个样本中细胞分布和发育方向的特征,提供了细胞种群沿轨迹的空间进化模式的概述。此外,我们还包括叠加在原始细胞分布数据上的轮廓图,使生物学家能够直观地探索它们。为了证明我们的系统的性能,我们通过两个案例研究和专家访谈对我们的模型进行了定量评估,以验证其有用性和有效性。


原文链接



GNN101:Web浏览器中图形神经网络的可视化学习

原标题:GNN101: Visual Learning of Graph Neural Networks in Your Web Browser

作者:Yilin Lu; Chongwei Chen; Yuxin Chen; Kexin Huang; Marinka Zitnik; Qianwen Wang

期刊:IEEE Transactions on Visualization and Computer Graphics

出版时间:2025/11/21

摘要:图神经网络(GNN)在各种应用中取得了显著的成功。然而,它们的复杂结构和内部工作对非人工智能专家来说是很难理解的。为了解决这个问题,本研究提出了GNN101,一种用于GNN交互式学习的教育可视化工具。GNN101引入了一组动画可视化,通过多个抽象级别(包括模型概述、层操作和详细计算)将数学公式与可视化无缝集成。用户可以在两个互补视图之间轻松切换:一个节点链接视图,提供对图形数据的直观理解;另一个矩阵视图,提供所有功能及其跨层转换的节省空间的全面概述。GNN101是在与四名GNN专家密切合作并在三个GNN相关课程中部署的基础上设计和开发的。我们通过GNN助教和学生的用例和用户研究来演示GNN101的可用性和有效性。为了确保广泛的教育访问,GNN101是通过现代web技术开发的,并且可以直接在web浏览器中使用,而不需要任何安装。


原文链接



CloseUpShot:通过点条件扩散模型从稀疏视图合成特写新视图

原标题:CloseUpShot: Close-up Novel View Synthesis from Sparse-views via Point-conditioned Diffusion Model

作者:Yuqi Zhang; Guanying Chen; Jiaxing Chen; Chuanyu Fu; Chuan Huang; Shuguang Cui

期刊:IEEE Transactions on Visualization and Computer Graphics

出版时间:2025/11/21

摘要:重建3D场景并从稀疏的输入视图合成新视图是一项极具挑战性的任务。视频扩散模型的最新进展展示了强大的时间推理能力,使其成为在稀疏视图设置下提高重建质量的一种有前途的工具。然而,现有的方法主要是为适度的视点变化而设计的,这些视点变化在特写场景中难以捕获细粒度的细节,因为输入信息严重受限。在这篇论文中,我们提出了一个基于扩散的框架,称为CloseUpShot,用于通过点条件视频扩散从稀疏输入进行特写新颖视图合成。具体地,我们观察到像素扭曲调节在特写设置中遭受严重的稀疏性和背景泄漏。为了解决这个问题,我们提出了分层翘曲和遮挡感知噪声抑制,增强了视频扩散模型的调节图像的质量和完整性。此外,我们引入了全局结构制导,该制导利用密集的融合点云为扩散过程提供一致的几何上下文,以补偿稀疏条件输入中缺乏全局一致的3D约束。在多个数据集上的大量实验表明,我们的方法优于现有的方法,特别是在近距离新视图合成中,清楚地验证了我们设计的有效性。


原文链接



三维城市环境中基于神经场的视图计算与数据挖掘方法

原标题:A Neural Field-Based Approach for View Computation & Data Exploration in 3D Urban Environments

作者:Stefan Cobeli; Kazi Shahrukh Omar; Rodrigo Valen̎a; Nivan Ferreira; Fabio Mira

期刊:IEEE Transactions on Visualization and Computer Graphics

出版时间:2025/11/21

摘要:尽管3D城市数据集的可用性越来越高,但由于计算瓶颈和与数据交互的复杂性,提取见解仍然具有挑战性。事实上,3D城市环境的复杂几何结构导致高遮挡度,并需要大量的手动视点调整,这使得大规模勘探效率低下。为了解决这个问题,我们提出了一种基于视图的3D数据勘探方法,其中向量场对来自环境的视图进行编码。为了支持这种方法,我们引入了一种基于神经场的方法,该方法构造了3D环境的有效隐式表示。该表示支持更快的直接查询(包括视图评估索引的计算)和反向查询(帮助避免遮挡并促进搜索与所需数据模式匹配的视图)。我们的方法支持关键的城市分析任务,如能见度评估、太阳照射评估和评估新开发的视觉影响。我们通过定量实验、由真实世界城市挑战提供信息的案例研究以及领域专家的反馈来验证我们的方法。结果表明,它在寻找理想的视点、分析建筑立面可见性和评估室外空间的视图方面是有效的。代码和数据可在urbantk.org/neural-3d上公开获得。


原文链接



通过交互式反事实生成和分析理解大语言模型行为

原标题:Understanding Large Language Model Behaviors through Interactive Counterfactual Generation and Analysis

作者:Furui Cheng; Vilém Zouhar; Robin Shing Moon Chan; Daniel Fürst; Hendrik Strobelt; Mennatallah El-Assady

期刊:IEEE Transactions on Visualization and Computer Graphics

出版时间:2025/11/21

摘要:理解大语言模型(LLM)的行为对于确保其安全可靠的使用至关重要。然而,现有的LLM可解释人工智能(XAI)方法主要依赖于单词级解释,这通常是计算效率低下的,并且与人类推理过程不一致。此外,这些方法通常将解释视为一次性输出,忽略了其固有的交互式和迭代性。在本文中,我们介绍了LLM Analyzer,这是一个交互式可视化系统,它通过反事实分析来直观有效地探索LLM行为,从而解决了这些限制。我们的系统具有一种新颖的算法,该算法通过在用户定义的粒度级别上进行有针对性的删除和替换操作来生成流畅的和语义上有意义的反事实。这些反事实用于计算特征属性得分,然后将其与基于表的可视化中的具体示例集成,支持模型行为的动态分析。与LLM从业者进行的用户研究和对专家的访谈表明了该系统的可用性和有效性,强调了让人类作为主动参与者而不是被动接受者参与解释过程的重要性。


原文链接



OW-CLIP:通过人工智能协作进行开放世界对象检测的数据高效可视化监控

原标题:OW-CLIP: Data-Efficient Visual Supervision for Open-World Object Detection via Human-AI Collaboration

作者:Junwen Duan; Wei Xue; Ziyao Kang; Shixia Liu; Jiazhi Xia

期刊:IEEE Transactions on Visualization and Computer Graphics

出版时间:2025/11/21

摘要:开放世界对象检测(OWOD)将传统的对象检测扩展到识别已知和未知对象,随着新注释的出现,需要连续的模型自适应。当前的方法面临着显著的限制:1)由于依赖大量的众包注释而需要数据饥渴的训练,2)对“部分特征过拟合”的敏感性,以及3)由于所需的模型架构修改而有限的灵活性。为了解决这些问题,我们提出了OW-CLIP,这是一个视觉分析系统,提供精心策划的数据,并支持数据高效的OWOD模型增量训练。OW-CLIP实现了为OWOD设置定制的即插即用多模式提示调整,并引入了一种新颖的“裁剪平滑”技术来减轻部分特征过拟合。为了满足训练方法的数据需求,我们提出了双模态数据细化方法,该方法利用大型语言模型和跨模态相似性来生成和过滤数据。同时,我们开发了一个可视化界面,使用户能够探索和提供高质量的注释,包括特定于类的视觉特征短语和细粒度的差异化图像。定量评估表明,OW-CLIP在89%的最先进性能下实现了竞争性能,而只需要3.8%的自生成数据,而在使用等效数据量进行训练时,其性能优于SOTA方法。实例研究表明了所开发方法的有效性和我们的可视化系统的注释质量的改进。


原文链接



数据记者如何设计地图来讲述故事?

原标题:How Do Data Journalists Design Maps to Tell Stories?

作者:Arlindo Gomes; Emilly Brito; Luiz A. Morais; Nivan Ferreira

期刊:IEEE Transactions on Visualization and Computer Graphics

出版时间:2025/11/21

摘要:地图对于新闻媒体来说是必不可少的,因为它们提供了一种熟悉的方式来传达空间背景并呈现引人入胜的叙事。然而,新闻地图的设计可能具有挑战性,因为编辑团队需要平衡多个方面,如美学、观众的预期数据素养、紧迫的出版期限和团队的技术技能。数据记者通常来自多个领域,缺乏制图、数据可视化和数据科学背景,限制了他们创建地图的能力。虽然之前的研究已经检查了数据报道中的空间可视化,但本研究试图更深入地了解新闻媒体所采用的地图设计过程。为了实现这一点,我们努力回答两个具体的研究问题:新闻地图的设计空间是什么?编辑团队如何制作新闻地图文章?为了回答第一个问题,我们收集并分析了一个大型语料库,该语料库包含462幅用于三个月内出版的五大新闻媒体的新闻文章的新闻地图。因此,我们创建了一个由八个维度组成的设计空间,涉及描述文章方面的属性和地图的视觉/交互式功能。我们通过对四名每天撰写数据驱动文章的数据记者的半结构化访谈来探讨第二个研究问题。通过这些访谈,我们确定了编辑团队制定的最常见的设计原理和当前实践中的潜在差距。我们还收集了从业者对我们设计空间的反馈,以对其进行外部验证。通过这些结果,我们旨在为研究人员和记者提供设计和研究新闻地图的经验数据。


原文链接



ScribbleSense:具有意图预测的基于生成Scribble的纹理编辑

原标题:ScribbleSense: Generative Scribble-Based Texture Editing with Intent Prediction

作者:Yudi Zhang; Yeming Geng; Lei Zhang

期刊:IEEE Transactions on Visualization and Computer Graphics

出版时间:2025/11/21

摘要:交互式3D模型纹理编辑为创建3D资源提供了增强的机会,徒手绘制样式提供了最直观的体验。然而,现有的方法主要支持基于草图的交互以进行大纲显示,而基于粗粒度涂鸦的交互的利用仍然有限。此外,由于涂鸦指令的抽象性质,当前的方法经常遇到挑战,这可能导致编辑意图不明确和目标语义位置不明确。为了解决这些问题,我们提出了ScribbleSense,这是一种结合多模态大语言模型(MLLM)和图像生成模型的编辑方法,以有效地解决这些挑战。我们利用MLLM的视觉功能来预测涂鸦背后的编辑意图。一旦识别了涂鸦的语义意图,我们就使用全局生成的图像来提取局部纹理细节,从而锚定局部语义并减轻关于目标语义位置的模糊性。实验结果表明,我们的方法有效地利用了MLLM的优势,实现了基于涂鸦的纹理编辑的最先进的交互式编辑性能。


原文链接



生物织物网络可视化的Motif简化:改进模式识别和解释

原标题:Motif Simplification for BioFabric Network Visualizations: Improving Pattern Recognition and Interpretation

作者:Johannes Fuchs; Cody Dunne; Maria-Viktoria Heinle; Daniel A. Keim; Sara Di Bartolomeo

期刊:IEEE Transactions on Visualization and Computer Graphics

出版时间:2025/11/21

摘要:检测和解释关系数据中的常见模式对于理解各种领域中的复杂拓扑结构至关重要。这些图案或网络图案通常可以通过算法检测。然而,目视检查对于探索和发现模式仍然至关重要。本文重点介绍BioFabric网络可视化中的图案——这是一种独特的技术,为研究扩展到更大网络、设计变体和布局算法以更好地暴露图案开辟了机会。我们的目标是展示突出显示图案如何帮助用户识别和解释BioFabric可视化中的模式。为此,我们利用现有的图案简化技术。我们用表示基本图案(如楼梯、团、路径和连接器节点)的轮廓来替换边。我们的受控实验和使用场景的结果表明,BioFabric的模体简化对于检测和解释网络模式是有用的。我们的参与者在不牺牲准确性的情况下,使用简化视图更快、更自信。我们当前的模体简化方法的有效性取决于使用的现有布局算法。我们希望我们在用户性能方面的有希望的发现将激励未来对为最大化图案表示而定制的布局算法的研究。


原文链接



【声明】内容源于网络
0
0
AI新文
AI顶刊顶会新论文一号通,每天推送,助您时刻站在AI研究最前沿。包括:人工智能基础、交叉应用、脑认知与类脑智能、机器学习、模式识别与计算机视觉、自然语言处理、知识工程与数据挖掘、跨媒体与人机交互、智能机器人与系统、智能芯片与计算等。
内容 223
粉丝 0
AI新文 AI顶刊顶会新论文一号通,每天推送,助您时刻站在AI研究最前沿。包括:人工智能基础、交叉应用、脑认知与类脑智能、机器学习、模式识别与计算机视觉、自然语言处理、知识工程与数据挖掘、跨媒体与人机交互、智能机器人与系统、智能芯片与计算等。
总阅读43
粉丝0
内容223