PythonとChatGPTを活用する スペクトル解析実践ガイド
ケモメトリクスから機械学習まで
- タイトル読み
- ぱいそんとちゃっとじーぴーてぃーをかつようする すぺくとるかいせきじっせんがいど ケモメトリクスからきかいがくしゅうまで
- 著者ほか
- 稲垣哲也・著
- 著者ほか読み
- いながきてつや
- 発行
- 2025/02/26
- サイズ
- B5変
- ページ数
- 320
- ISBN
- 978-4-06-538590-6
- 定価
- 4,180円(税込)
- 在庫
- 在庫あり
書籍を購入する
内容紹介
ケモメトリクスと機械学習によるスペクトル解析を、
目次
第1章 スペクトル解析の基礎知識
1.1 機器分析
1.2 分光分析とスペクトル
1.3 スペクトル解析
1.4 従来のスペクトル解析とPythonによるスペクトル解析
1.5 Pythonを使用する利点
1.6 機械学習とケモメトリクスのスペクトル解析への適用
1.6.1 機械学習とは
1.6.2 ケモメトリクスとは
1.6.3 ケモメトリクスと機械学習の違い
1.6.4 スペクトル解析における相関と因果の区別の重要性
1.6.5 検量線と検量モデル
1.7 相関と因果
1.8 ノーフリーランチ定理
コラム1:公理と定理
第2章 Pythonプログラミングの導入と基礎
2.1 Python(Jupyter Notebook)の環境構築
2.2 GitHubからのデータのダウンロード
2.3 Pythonプログラミング入門
2.3.1 キーボードショートカットとMarkdown
2.3.2 変数の取り扱い
2.3.3 リスト
2.3.4 タプル
2.3.5 bool型
2.3.6 if文
2.3.7 for文
2.3.8 関数の定義
2.4 ライブラリ
2.4.1 ライブラリとは
2.4.2 ライブラリのインストールとインポート
2.4.3 Pythonとライブラリのバージョンについて
2.4.4 ライブラリの利用方法
第3章 Pythonで理解する基礎統計
3.1 平均,分散,標準偏差
3.2 正規分布
3.3 データフレームの取り扱い
3.3.1 データフレームの作成
3.3.2 インデックスがないデータ
3.3.3 インデックスもカラム名もないデータ
3.3.4 データフレームの操作
3.4 pandasで正規分布を理解する
3.4.1 平均値と標準偏差の計算
3.4.2 ヒストグラムと正規分布のグラフの作成
3.4.3 Zスコアを用いた統計的指標の計算
3.5 母集団と標本,偶然誤差と系統誤差
3.6 点推定
3.7 区間推定
3.7.1 母集団の分散が既知の場合の信頼区間の求め方
3.7.2 母集団の分散が未知の場合の信頼区間の求め方
3.7.3 母集団の信頼区間の推定
3.8 対応のあるt検定
3.9 対応のないt検定
3.10 相関係数とp値
第4章 Pythonで理解する線形代数
4.1 行列の基本演算
4.1.1 行列の和,差,積
4.1.2 単位行列と逆行列
4.1.3 Pythonを用いた行列の基本演算
4.2 逆行列で連立方程式を解く
4.2.1 逆行列を用いた連立方程式の解き方
4.2.2 Pythonによる行列を用いた連立方程式の解き方
4.2.3 逆行列が求まらない連立方程式
4.2.4 単回帰分析(最小二乗法)
4.2.5 Python による単回帰分析(最小二乗法)
4.3 DataFrame(pandas)とndarray(NumPy)の関係
コラム2:バタフライ効果(グーテンベルグ・リヒター則と偶然性)
第5章 ChatGPTの効果的な使い方
5.1 ChatGPTの概要
5.2 ChatGPTの機能
5.2.1 プラグイン
5.2.2 ウェブブラウジング
5.2.3 Advanced data analysis
5.2.4 DALL‒E画像生成
5.2.5 MyGPTs
5.3 プロンプトエンジニアリング
5.3.1 プログラムの理解
5.3.2 プログラムのデバッグ
5.3.3 プログラムの更新
5.3.4 プログラムの生成
コラム3:社会学(相関と蓋然性)
第6章 ケモメトリクスの基礎知識
6.1 ランベルト・ベール則
6.2 古典的最小二乗(CLS)法
6.2.1 ランベルト・ベール則を拡張する
6.2.2 純スペクトル行列を解く(CLS 法)
6.2.3 CLS法の問題点
6.2.4 CLS法の実装
6.3 逆最小二乗(ILS)法
6.3.1 ILS法の特徴
6.3.2 ILS法の計算と欠点
6.3.3 ILS法の実装
第7章 ケモメトリクスの基礎知識:応用編
7.1 主成分分析(PCA)
7.1.1 PCAの概念
7.1.2 ローディングの性質
7.1.3 PCAローディングの性質をPython確認する
7.1.4 PCAと固有値問題(特異値分解)
7.1.5 中心化と標準化がローディングに与える影響
7.1.6 中心化と標準化がローディングに与える影響をPythonで確認する
7.1.7 スコアとローディングによるスペクトルの再構築
7.1.8 スコアとローディングによるスペクトルの再構築をPythonで確認する
7.1.9 主成分回帰(PCR)と最適な主成分数の決定(バリデーション)
7.1.10 クロスバリデーションとテストセット
コラム4:正確度と精度
7.2 部分的最小二乗回帰(PLS回帰)
7.2.1 PLS回帰の概要
7.2.2 ウェイトローディングとローディングの違い
7.2.3 ウェイトローディングとローディングの違いをPythonで確認する
7.3 スペクトル分解としてのケモメトリクス
コラム5:医療と治験
第8章 スペクトルデータの前処理
8.1 スペクトルデータの一括読み込み
8.2 横軸の間隔が異なるスペクトル
8.3 行方向(試料方向)の前処理
8.3.1 中心化と標準化
8.3.2 乗算的散乱補正(MSC)
8.4 列方向(波長方向)の前処理
8.4.1 スムージング,一次微分,二次微分による前処理
8.4.2 スムージング,一次微分,二次微分による前処理の実行
8.4.3 標準正規変量(SNV)による前処理の実行
8.5 前処理の関数のモジュール化
コラム6:ビッグデータとGAMAM
第9章 機械学習の基礎知識
9.1 クラスタリング
9.2 k近傍法
9.3 決定木をベースとしたアルゴリズム
9.3.1 ランダムフォレスト
9.3.2 勾配ブースティング
9.3.3 Pythonによる実践
9.4 重回帰分析(最小二乗法,最小絶対値法,リッジ回帰,ラッソ回帰)
9.5 サポートベクトルマシン(SVM)
9.5.1 SVMの損失関数
9.5.2 SVM(ハードマージン)の条件
9.5.3 SVM(ソフトマージン)の条件
9.5.4 主問題と双対問題(カーネル化と非線形判別分析)
9.5.5 SVM による非線形判別分析の実践
9.5.6 サポートベクトル回帰(SV回帰)
9.5.7 スペクトルに現れる非線形項
9.6 ニューラルネットワーク(NN)
Appendix SVM の主問題から双対問題への変換
第10章 スペクトル操作の実践
10.1 スペクトルデータの読み込み
10.2 箱ひげ図による目的変数の分布の把握
10.3 スペクトル表示
10.4 ピーク検出
10.5 相関スペクトル
10.6 ベースライン補正
10.7 カーブフィッティング
10.8 ヒートマップによるスペクトル表示
第11章 ケモメトリクスと機械学習の実践
11.1 アウトライヤーの検出と除去
11.2 各モジュールでの標準化自由度
11.3 PLSウェイトローディング,ローディング,回帰係数
11.4 ウェイトローディングと寄与率
11.5 GridSearchCVによるクロスバリデーション
11.6 パイプイラインを用いたモデルの最適化
第12章 ハイパースペクトルイメージング解析
12.1 RGB画像とハイパースペクトルイメージング(HSI)
12.2 NIR‒HSIデータの構造と読み込み
12.3 画像とスペクトルの抽出
12.4 木材試料領域のスペクトルと画像を抽出
12.4.1 任意の波長領域でのHSIとスペクトルの抽出
12.4.2 試料領域の抽出
12.5 PLS回帰を用いた目的変数の予測値の空間分布を可視化
12.6 HSIデータ解析への畳み込みニューラルネットワーク(CNN)の適用
あとがき
索引