Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:2501.16381

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:2501.16381 (cs)
[提交于 2025年1月24日 ]

标题: 凹印印刷中流体动力学图案形成的降阶建模与分类

标题: Reduced-order modeling and classification of hydrodynamic pattern formation in gravure printing

Authors:Pauline Rothmann-Brumm, Steven L. Brunton, Isabel Scherl
摘要: 在印刷和涂布过程中,流体力学图案形成现象仍然没有被完全理解。然而,基本的理解对于实现高质量的印刷产品以及根据特定应用(如印刷电子、图形印刷或生物医学印刷)的需求调整印刷图案至关重要。本文的目的是开发一种基于监督机器学习和降阶建模方法的自动化图案分类算法。我们使用了HYPA-p数据集,这是一个大型的凹版印刷图像图像数据集,展示了各种类型的流体力学图案形成现象。它首次实现了印刷工艺参数与最终印刷图案之间的相关性。HYPA-p数据集中的26880张图像由人工观察者标记为点图案、混合图案或手指状图案;864000张图像(97%)未标记。使用奇异值分解(SVD)来找到标记图像的模式,并通过截断和投影来降低整个数据集的维度。选择的机器学习分类技术在降阶数据上进行训练。我们研究了多个因素的影响,包括分类器的选择、是否使用快速傅里叶变换(FFT)对标记图像进行预处理、数据平衡和数据归一化。表现最好的模型是一个在不平衡、FFT变换数据上训练的k最近邻(kNN)分类器,测试误差为3%,比人工观察者高出7%。数据平衡略微将kNN模型的测试误差增加到5%,但也将混合类的召回率从90%提高到94%。最后,我们演示了如何使用训练好的模型预测未标记图像的图案类别,以及如何将预测结果以区域图的形式与印刷工艺参数相关联。
摘要: Hydrodynamic pattern formation phenomena in printing and coating processes are still not fully understood. However, fundamental understanding is essential to achieve high-quality printed products and to tune printed patterns according to the needs of a specific application like printed electronics, graphical printing, or biomedical printing. The aim of the paper is to develop an automated pattern classification algorithm based on methods from supervised machine learning and reduced-order modeling. We use the HYPA-p dataset, a large image dataset of gravure-printed images, which shows various types of hydrodynamic pattern formation phenomena. It enables the correlation of printing process parameters and resulting printed patterns for the first time. 26880 images of the HYPA-p dataset have been labeled by a human observer as dot patterns, mixed patterns, or finger patterns; 864000 images (97%) are unlabeled. A singular value decomposition (SVD) is used to find the modes of the labeled images and to reduce the dimensionality of the full dataset by truncation and projection. Selected machine learning classification techniques are trained on the reduced-order data. We investigate the effect of several factors, including classifier choice, whether or not fast Fourier transform (FFT) is used to preprocess the labeled images, data balancing, and data normalization. The best performing model is a k-nearest neighbor (kNN) classifier trained on unbalanced, FFT-transformed data with a test error of 3%, which outperforms a human observer by 7%. Data balancing slightly increases the test error of the kNN-model to 5%, but also increases the recall of the mixed class from 90% to 94%. Finally, we demonstrate how the trained models can be used to predict the pattern class of unlabeled images and how the predictions can be correlated to the printing process parameters, in the form of regime maps.
主题: 机器学习 (cs.LG) ; 流体动力学 (physics.flu-dyn)
引用方式: arXiv:2501.16381 [cs.LG]
  (或者 arXiv:2501.16381v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.2501.16381
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Pauline Rothmann-Brumm [查看电子邮件]
[v1] 星期五, 2025 年 1 月 24 日 16:26:20 UTC (27,953 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • TeX 源代码
  • 其他格式
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2025-01
切换浏览方式为:
cs
physics
physics.flu-dyn

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号