*** 学習データ作成の労力削減の考え、半教師付き学習、能動学習、そして、転移学習 [#s2c683c7]
+[[神嶌 敏弘氏の転移学習のサーベイ(人工知能学会PDF)>http://www.kamishima.net/archive/2009-tr-jsai_dmsm1-print.pdf]]
--元ドメインの訓練事例集合を利用することで,目標ドメインでの予測精度を向上させることを考えた学習

***機械学習 [#ued0c9da]
+[[機械学習 はじめよう 第1回 機械学習 ことはじめ>http://gihyo.jp/dev/serial/01/machine-learning/0001]]
+[[機械学習 はじめよう 第2回 確率の初歩>http://gihyo.jp/dev/serial/01/machine-learning/0002]]

+[[はてなの機械学習スライド>http://www.slideshare.net/hatenatech/ss-4942250]]
***機械学習勉強会 [#w454949c]
+[[2010年4月より、IBISML(あいびす・えむえる: Information-Based Induction Sciences and Machine Learning)>http://ibisml.org/001/]]

*** 2010年06月09日 JSAI2010 [#f6b149bb]
+中田 康太, 村上 知子, "ラベル信頼度を用いたブースティング手法のインバランスデータへの応用",JSAI2010,
--https://kaigi.org/jsai/webprogram/2010/pdf/280.pdf
--インバランスなデータの対策
--「ラベル付け」、「カテゴリ付け」の信頼度を判断する。信頼度とは、エキスパートによりラベル付けされた「質の良い(獲得コストの高い)少量の教師データ」と非エキスパートによりラベル付けされた「ノイズを含む(獲得コストの低い)多量の教師データ」が混在する場合、後者の影響で精度が下がる。
+高橋 和子,"クラス所属確率を利用したアンサンブル学習"
--https://kaigi.org/jsai/webprogram/2010/pdf/260.pdf
--アンサンブル学習
---複数の分類器を組み合わせ, それらの
結果を統合することで個々の分類器よりも予測精度を上げる
--ブースティング(原稿から抜粋)
---ブースティングは, 逐次的に事例の重みを変化させながら分類器を構築していき, 個々の分類器による予測結果に異なる重み付けをして最終決定を行う[元田他06].
--バギング (原稿から抜粋) ・・・ 多数決法
---バギングは, リサンプリングにより元のデータセットと同じサイズのデータセットを複数個作成し, 各データセットに同じアルゴリズムを適用してバリアンスの異なる複数の分類器を構築する. 個々の分類器による予測結果に対して, カテゴリ型の場合には多数決により, 連続値である回帰問題の場合には平均値や中央値により最終決定を行う[Breiman 96].