[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

Single- to multi-fidelity history-dependent learning with uncertainty quantification and disentanglement: application to data-driven constitutive modeling

Created by
  • Haebom

作者

Jiaxiang Yi, Bernardo P. Ferreira, Miguel A. Bessa

概要

この論文では、データ駆動型学習を拡張し、歴史に依存する多重忠実度データを考慮し、認識的不確実性を定量化し、データノイズ(確率的不確実性)から分離する方法について説明します。階層構造を持つこの方法は、単純な単一忠実度決定論的ニューラルネットワーク学習から提案された複数忠実度分散推定ベイズ循環ニューラルネットワーク学習まで、さまざまな学習シナリオに適用できます。さまざまな忠実度のデータ(ノイズの有無を含む)を使用する複数のデータ駆動型構成モデリングシナリオに適用することにより,方法の多様性と一般性を実証した。この方法は、応答を正確に予測し、モデル誤差を定量化し、ノイズ分布(存在する場合)を特定します。これは、不確実性の下での設計と分析を含む最も困難なケースを含む、さまざまな科学および工学分野の実際のアプリケーションの機会を開きます。

Takeaways、Limitations

Takeaways:
歴史依存多重忠実度データを用いたデータ駆動型学習の一般化可能性の提示
認識的不確実性と確率的不確実性の分離と定量化
さまざまな学習シナリオ(単一/多重忠実度、決定論的/ベイジアン)に適用可能な柔軟な方法論の提示
モデル誤差の定量化と雑音分布の把握による正確な応答予測
不確実性の下で設計と分析を含む様々な科学/工学分野の応用可能性を提示
Limitations:
本論文で提示した方法論の実際の応用事例の具体的な分析の欠如
さまざまなデータセットの一般化パフォーマンスの追加検証が必要
計算コストと複雑さの評価不足
特定の種類のデータまたは問題に対する偏りの可能性の存在
👍