Skip to main content
CenXiv.org
此网站处于试运行阶段,支持我们!
我们衷心感谢所有贡献者的支持。
贡献
赞助
cenxiv logo > cs > arXiv:1905.08575

帮助 | 高级搜索

计算机科学 > 机器学习

arXiv:1905.08575 (cs)
[提交于 2019年5月21日 ]

标题: 探索Lx-范数惩罚项在多变量曲线分辨率方法中解析LC/GC-MS数据的效果

标题: Exploring the effects of Lx-norm penalty terms in multivariate curve resolution methods for resolving LC/GC-MS data

Authors:Ahmad Mani-Varnosfaderani, Mohammad Javad Masroor
摘要: 复杂LC-MS或GC-MS数据的解析存在不同的问题,例如嵌入色谱峰的存在、连续背景以及不同组分在质量通道中的重叠。 这些问题导致使用多变量曲线分辨率(MCR)方法计算出的恢复轮廓出现旋转模糊性。 由于质谱本质上是稀疏的,最近提出了稀疏性作为分析LC-MS数据的MCR方法中的约束条件。 实现稀疏性约束有不同的方式,大多数方法依赖于基于恢复质谱的L0-、L1-和L2-范数的惩罚。 岭回归和最小绝对收缩与选择算子(Lasso)可以分别用于在MCR中实现L2-和L1-范数惩罚。 主要的问题是,在MCR方法中,哪个Lx-范数惩罚对于实现稀疏性约束更有价值。 为了回答这个问题,在这项工作中模拟了两组分和三组分的LC-MS数据,并用于案例研究。 使用网格搜索策略计算了可行解区域(AFS)。 计算零到二之间的x值在AFS中的Lx-范数值显示,优化曲面的梯度从x等于二逐渐增加到接近零的x值。 然而,当x等于零时,优化曲面类似于一个平台,这增加了陷入局部最小值的风险。 总的来说,本工作中的结果推荐使用L1-范数惩罚方法,如Lasso,用于在MCR-ALS算法中实现稀疏性约束,以找到更稀疏的解决方案并减少旋转模糊性的程度。
摘要: There are different problems for resolution of complex LC-MS or GC-MS data, such as the existence of embedded chromatographic peaks, continuum background and overlapping in mass channels for different components. These problems cause rotational ambiguity in recovered profiles calculated using multivariate curve resolution (MCR) methods. Since mass spectra are sparse in nature, sparsity has been proposed recently as a constraint in MCR methods for analyzing LC-MS data. There are different ways for implementation of the sparsity constraint, and majority of methods rely on imposing a penalty based on the L0-, L1- and L2-norms of recovered mass spectra. Ridge regression and least absolute shrinkage and selection operator (Lasso) can be used for implementation of L2- and L1-norm penalties in MCR, respectively. The main question is which Lx-norm penalty is more worthwhile for implementation of the sparsity constraint in MCR methods. In order to address this question, two and three component LC-MS data were simulated and used for the case study in this work. The areas of feasible solutions (AFS) were calculated using the grid search strategy. Calculating Lx-norms values in AFS for x between zero and two revealed that the gradient of optimization surface increased from x values equal to two to x values near zero. However, for x equal to zero, the optimization surface was similar to a plateau, which increased the risk of sticking in local minima. Generally, results in this work, recommend the use of L1-norm penalty methods like Lasso for implementation of sparsity constraint in MCR-ALS algorithm for finding more sparse solutions and reducing the extent of rotational ambiguity.
主题: 机器学习 (cs.LG) ; 机器学习 (stat.ML)
引用方式: arXiv:1905.08575 [cs.LG]
  (或者 arXiv:1905.08575v1 [cs.LG] 对于此版本)
  https://doi.org/10.48550/arXiv.1905.08575
通过 DataCite 发表的 arXiv DOI

提交历史

来自: Ahmad Mani-Varnosfaderani Dr. [查看电子邮件]
[v1] 星期二, 2019 年 5 月 21 日 12:20:35 UTC (4,361 KB)
全文链接:

获取论文:

    查看标题为《》的 PDF
  • 查看中文 PDF
  • 查看 PDF
  • 其他格式
查看许可
当前浏览上下文:
cs.LG
< 上一篇   |   下一篇 >
新的 | 最近的 | 2019-05
切换浏览方式为:
cs
stat
stat.ML

参考文献与引用

  • NASA ADS
  • 谷歌学术搜索
  • 语义学者
a 导出 BibTeX 引用 加载中...

BibTeX 格式的引用

×
数据由提供:

收藏

BibSonomy logo Reddit logo

文献和引用工具

文献资源探索 (什么是资源探索?)
连接的论文 (什么是连接的论文?)
Litmaps (什么是 Litmaps?)
scite 智能引用 (什么是智能引用?)

与本文相关的代码,数据和媒体

alphaXiv (什么是 alphaXiv?)
CatalyzeX 代码查找器 (什么是 CatalyzeX?)
DagsHub (什么是 DagsHub?)
Gotit.pub (什么是 GotitPub?)
Hugging Face (什么是 Huggingface?)
带有代码的论文 (什么是带有代码的论文?)
ScienceCast (什么是 ScienceCast?)

演示

复制 (什么是复制?)
Hugging Face Spaces (什么是 Spaces?)
TXYZ.AI (什么是 TXYZ.AI?)

推荐器和搜索工具

影响之花 (什么是影响之花?)
核心推荐器 (什么是核心?)
IArxiv 推荐器 (什么是 IArxiv?)
  • 作者
  • 地点
  • 机构
  • 主题

arXivLabs:与社区合作伙伴的实验项目

arXivLabs 是一个框架,允许合作伙伴直接在我们的网站上开发和分享新的 arXiv 特性。

与 arXivLabs 合作的个人和组织都接受了我们的价值观,即开放、社区、卓越和用户数据隐私。arXiv 承诺这些价值观,并且只与遵守这些价值观的合作伙伴合作。

有一个为 arXiv 社区增加价值的项目想法吗? 了解更多关于 arXivLabs 的信息.

这篇论文的哪些作者是支持者? | 禁用 MathJax (什么是 MathJax?)
  • 关于
  • 帮助
  • contact arXivClick here to contact arXiv 联系
  • 订阅 arXiv 邮件列表点击这里订阅 订阅
  • 版权
  • 隐私政策
  • 网络无障碍帮助
  • arXiv 运营状态
    通过...获取状态通知 email 或者 slack

京ICP备2025123034号