『音による故障予知の教科書たたき台:8.4 ディープラーニング応用(RNN, CNN)』LLMと一緒に書いてみた—AIが導く研究メモ

8. 応用・発展  

8.4 ディープラーニング応用(RNN, CNN)

ディープラーニングは、大量のデータから自動的に特徴を学び取り、複雑なパターンを見つける手法である。ここでは、時間に沿って変化するデータを扱うのに強いRNN(再帰型ニューラルネットワーク)と、並び(配列)の近い部分から特徴を抜き出すのに強いCNN(畳み込みニューラルネットワーク)を、故障予知にどう活かすかをわかりやすく整理する。RNNの代表的な改良としてLSTMやGRUがあり、長い時間にわたる文脈(前後関係)を保持しやすい構造を持つため、異常の前兆のような「徐々に変わるサイン」に反応できることが知られている。一方、1次元のCNNは振動や電流などのセンサ波形に直接適用でき、短い区間の形の違い(局所パターン)や特定周波数帯の強まりを素早く捉えるのが得意で、故障診断で高い精度を示す報告が蓄積している。[1][2][3][4][5]

まずRNN系の考え方をやさしく説明する。RNNは「今の入力」と「ひとつ前までの内部状態」から次の状態を作り、時系列を順に読みながら、過去の情報を少しずつ持ち運ぶ仕組みである。基本形のRNNは長い依存関係の保持が苦手なため、実務ではLSTM(長短期記憶)やGRU(ゲート付きユニット)が広く使われる。LSTM/GRUは、情報を通す・忘れるの切り替えを内部の“ゲート”で制御し、長めの履歴に基づく予測や異常検知に強い。時系列の異常検知では、大きく2つの使い方がある。1つ目は「予測型」で、正常データで次の値(または次の窓)を予測するように学習し、実測との差(予測誤差)が閾値を超えたら異常とみなす方式である。この発想は多数の研究・応用で使われ、LSTM/GRUを多層に重ねて予測精度を高め、誤差の分布や累積和(CUSUM)で検知の安定化を図る工夫が報告されている。2つ目は「再構成型」で、LSTMやGRUを用いたオートエンコーダ(入力をいったん圧縮してから復元するモデル)に正常データだけを学習させ、復元誤差が大きい系列を異常と判断するやり方である。GRUオートエンコーダや注意機構付きのGRUなど、応用的な構成も検討され、産業データでの有効性が示されている。[6][3][1]

RNN系の長所は、時間的な前後関係をなめらかに取り込み、突発だけでなく「ゆっくり進む変化」も学べる点にある。多変量(複数センサ)でも拡張しやすく、センサ間の同時性や遅れ関係をモデル内で表現できる。一方の注意点は、学習に時間がかかりやすいこと、ハイパーパラメータ(層数、隠れユニット数、学習率など)の調整が難しいこと、長すぎる系列では勾配が不安定になりやすいことが挙げられる。また、モデルの判断根拠を人に説明しにくい場面があり、最近は注意機構や外部の異常スコア化(One-Class SVMやSVDDとの組合せ)で可読性・分岐の明確化を試みる研究もある。[1]

次に1次元CNNの考え方を説明する。CNNは、入力の近接した小さな区間(受容野)に同じフィルタ(畳み込み核)をスライド適用し、どの位置にも現れる共通の形(パターン)を効率よく見つける。1次元CNNなら、時間方向にフィルタを滑らせることで、波形の立ち上がり、周期的なギザギザ、高周波成分の塊などを自動抽出できる。実務では、- 生の波形に直接1D-CNNを当てる、- いったん周波数特性に変換(FFTやCWT)してスペクトログラム等の「画像」にし、2D-CNNで分類する、という両方の路線が使われる。回転機や変圧器の振動・電流などで、1D/2D-CNNが高精度の故障診断を達成した報告が複数あるほか、ノイズに強くするために学習時に雑音を混ぜる、ドメインシフト(条件差)に耐える工夫を入れる、といった設計知見も示されている。1D-CNNは並列計算との相性が良く、推論が速くて実装が比較的軽いのが長所で、エッジ側でのリアルタイム検出に向くとされる。[7][4][5]

RNNとCNNはしばしば組み合わせられる。たとえば、「CNNで短い区間の局所パターンを抽出→RNNで長期の文脈を統合」という順番で重ねると、短期と長期の両方の時間構造を活かせる。さらに、再構成(オートエンコーダ)や短時間フーリエ変換(STFT)と組み合わせるハイブリッド構成も提案され、予兆検出や故障部位の識別に応用されている。ディープラーニングを異常検知に用いる一般的な設計指針としては、「予測型(先を当てて外れを検知)」と「再構成型(正常らしさを復元誤差で測る)」の二本柱が整理され、どちらもRNN/CNNの選択や組合せで強化できるとされる。[8][9][10][1]

実装の流れを、現場で動かす視点でまとめる。第一に、目的とデータの確認。どのセンサ(振動、音、電流、温度など)を、どの窓長・サンプリングで扱うか、異常の定義(何を異常とみなすか)を明確にする。第二に、前処理と分割。欠損・外れ処理、正規化(スケーリング)、時間窓への分割、学習・検証・テストの時間順分割(未来情報の混入防止)を設計する。第三に、モデル選択。- 局所形の違いが鍵なら1D-CNNから、- 長期のドリフトや文脈が鍵ならLSTM/GRUから、- 両方を狙うならCNN+RNNのハイブリッドから始める。第四に、学習方式の選定。ラベルが乏しければ「予測型」や「再構成型」の半教師あり・教師なし路線、ラベルが十分なら教師あり分類(正常/異常)を採る。第五に、評価と閾値決定。不均衡を前提に、再現率・適合率・F1やPR曲線(PR-AUC)で比較し、運用上必要な再現率を満たす範囲で閾値を選ぶ。第六に、運用・監視。モデルのドリフト(季節・負荷・設備差)を監視し、定期的に再学習や閾値再同定を行う。

設計上の具体ポイントを挙げる。- 入力の窓長は、注目する故障メカニズムの時間スケールを覆う長さに設定する(周期性を含むなら少なくとも数周期)。- 1D-CNNのカーネル幅は、検知したいパターンの時間幅と対応づけて選ぶ(短い衝撃は小カーネル、ゆっくりした形は大きめ)。- LSTM/GRUのユニット数・層数は、データ量と計算資源に合わせて段階的に増やす(過学習はドロップアウトや正則化、早期終了で抑制)。- 再構成型は、復元誤差の分布を検証セットで把握し、センサごと・条件ごとのばらつきを踏まえた閾値を置く(固定値よりも条件別の方が安定)。- 予測型は、誤差の単純閾値に加え、誤差の累積(CUSUM)や確率的しきい値を用いると偽陽性を抑制しやすい。- 可視化と説明の工夫として、スペクトログラム上の注目領域をハイライトする、1D-CNNのカーネル応答やRNNの注意重みを表示する、などを整備すると現場合意が得やすい。[1]

どちらを選ぶべきかの目安も示しておく。- データが比較的少なく、リアルタイム性重視、局所的なパターン差で異常が現れる(例:歯打ち、局所衝撃)→ 1D-CNNが出発点として適する。- 複数の緩やかな変化が積み重なって前兆となる、長期の依存性やセンサ間の時間遅れも手掛かり→ LSTM/GRUが有力。- ラベルが乏しい状況で、正常の「らしさ」をモデル化したい→ 再構成型のオートエンコーダ(CNN-AEやGRU-AE)が実務的。- 周波数帯の見極めが鍵、画像的な特徴でまとめたい→ STFT/CWTで画像化し2D-CNN、または1D-CNN+周波数特徴の併用。[2][3][4][9][5][10][8][1]

最後に、最新動向への接続を短く触れる。異常検知の俯瞰では、RNN/CNNに加えて、予測型・再構成型・表現学習型を含む体系的な整理が進み、モデル選択のガイドも提示されている。また、RNNの系譜としてGRU/LSTMの改良や注意機構、ハイブリッド構成の研究も継続している。CNNは1D/2Dいずれでも産業振動で高性能を示す報告が増え、ノイズ耐性・運転条件の違いへの頑健性に焦点を当てた設計が有効とされる。目的(どんな変化を検知したいか)と制約(データ量、計算資源、応答時間)から逆算して、RNN/CNNを単独または組み合わせで選び、予測型・再構成型・教師ありのいずれかの学習枠組みへ適切に当てはめることが、故障予知の現場で実力を引き出す最短ルートである。[3][4][5][10][2][6][8][1] [1] https://arxiv.org/html/2211.05244v3

[2] https://www.sciencedirect.com/science/article/pii/S2215016124003972

[3] https://www.nature.com/articles/s41598-024-84130-8

[4] https://pmc.ncbi.nlm.nih.gov/articles/PMC9371231/

[5] https://vbn.aau.dk/files/528973227/sensors_23_04781.pdf

[6] https://www.jstage.jst.go.jp/article/transinf/E103.D/8/E103.D_2020EDL8016/_pdf

[7] https://romanpub.com/resources/ijaet20v5-4-2023-70.pdf

[8] https://pmc.ncbi.nlm.nih.gov/articles/PMC8588519/

[9] http://www.diva-portal.org/smash/get/diva2:1894319/FULLTEXT01.pdf

[10] https://ieeexplore.ieee.org/document/10466277/

[11] https://www.sciencedirect.com/science/article/abs/pii/S0167404823000044

[12] https://arxiv.org/html/2507.13685v1

[13] https://www.sciencedirect.com/science/article/abs/pii/S0925231222005112

[14] https://www.sciencedirect.com/science/article/pii/S2212827124014902/pdf?md5=f0fb36ba1f7da599041503e469b0ed55&pid=1-s2.0-S2212827124014902-main.pdf

[15] https://www.nature.com/articles/s41598-025-08515-z

[16] https://www.sciencedirect.com/science/article/abs/pii/S1568494622004069

※本ページは、AIの活用や研究に関連する原理・機器・デバイスについて学ぶために、個人的に整理・記述しているものです。内容には誤りや見落としが含まれている可能性もありますので、もしお気づきの点やご助言等ございましたら、ご連絡いただけますと幸いです。

※本ページの内容は、個人的な学習および情報整理を目的として提供しているものであり、その正確性、完全性、有用性等についていかなる保証も行いません。本ページの情報を利用したこと、または利用できなかったことによって発生した損害(直接的・間接的・特別・偶発的・結果的損害を含みますが、これらに限りません)について、当方は一切責任を負いません。ご利用は利用者ご自身の責任でお願いいたします。

おすすめの記事