公開日:2023年12月15日
更新日:2024年10月28日
この度は、個人会員「eラーニングプログラム(オンデマンドプログラム)」にご入会いただきありがとうございます。
(会員向けサービス)
個人会員は、コンソーシアムが実施する各種イベントの情報を受け取ることができます。
また、データアントレプレナーフェロープログラムで利用する最新の「eラーニングプログラム(オンデマンドプログラム)」を無料で視聴することができます。
(会費)
個人会員:24,000円 (年額)
※入会金は無料。入会時期に応じた日割り計算はありません。
※ご入会にあたっては、「データアントレプレナーコンソーシアム規約」と「利用規約」をご一読ください。
【注意事項】
・会員限定の「限定公開」動画です。動画・講義資料などの再配布は禁止 です。
(動画を録画したりスクリーンキャプチャしたもの、ダウンロードしたりしたものを第三者に提供すること、第三者が閲覧可能な形でアップロードすること、講義のリンク(URL)を第三者に提供することは禁止です。)
・講義で利用するデータの提供はしておりません。予めご了承ください。
・講義についてのご質問には回答できません。ご了承ください。
eラーニングプログラム(オンデマンドプログラム)
2023年12月15日現在
講義 | 動画・時間 | 内容 | 講師 | 講義資料 | |
---|---|---|---|---|---|
(1) | 因果推論 (2020年8月開講) | 因果推論についての基礎的な知識を学びます。 | 田村 光太郎氏(株式会社野村総合研究所) 斉藤 史朗 特任教授 | 0_ガイダンス | |
#1(1:30:19) | ・統計分析の復習 | 1_因果推論 | |||
#2(1:31:46) | ・相関と因果の考え方・効果量の測定方法 | 2_因果推論 | |||
#3(1:31:23) | ・バイアスの除去方法 | 3_因果推論 | |||
#4(1:21:48) | ・検証実験の設計 | 4_因果推論 | |||
(2) | レコメンドモデル作成 (2021年7月開講) | 講義と演習教材によって、レコメンドモデルを作っていただきます。 | 赤間 悟氏(フリーランス ) 斉藤 史朗 特任教授 | ||
#1(2:03:32) | ・近傍ベースでの協調フィルタリングによるレコメンド | ||||
#2(2:25:23) | ・コンテンツベースレコメンド ・共起行列を使った関連アイテムレコメンド | ||||
#3(2:17:16) | ・行列分解による強調フィルタリング ・オフラインでのレコメンドの精度や特性の評価の仕方 | ||||
#4(2:20:36) | ・暗黙的フィードバックによる協調フィルタリングによるレコメンド ・購買データやサイトログデータの探索的データ分析 ・演習問題 | 4_データ項目一覧 | |||
#5(1:36:59) | ・課題の解説と評価やバイアスに関する補足 | 5_補足資料 | |||
(3) | 自然言語処理_基礎編 (2021年度開講) | 自然言語処理に取り組む上でのベースとなる、前処理について説明します。 | 和田陽一郎 客員教授 | ||
#1(4:13) | ・この章で扱うケース | 自然言語処理_教科書 | |||
#2(14:53) | ・自然言語処理概要 | ||||
#3(32:51) | ・データ取得 | ||||
#4(29:34) | ・テキストデータの数値化① | ||||
#5(31:47) | ・テキストデータの数値化② | ||||
#6(38:41) | ・テキストデータの整理 | ||||
#7(15:38) | ・データの俯瞰と加工 | ||||
#8ー1(18:38) #8ー2(32:09) #8ー3(29:52) #8ー4(20:18) #8ー5(56:32) | ・自然言語処理でよく使う分析手法 | ||||
(4) | 自然言語処理_応用編 (2021年度開講) | 自然言語処理の発展的課題として、LDAによるトピックモデル、Word2Vec、BERTについて学びます。 | 関根 伸吾氏(ネイチャーインサイト株式会社) 斉藤 史朗 特任教授 | ||
#1_1(1:20:52) #1_2(29:24) | ・単語の分散表現とword2vec | 1_単語の分散表現とword2vec | |||
#2_1(1:00:28) #2_2(25:22) | ・トピックモデル | 2_トピックモデル | |||
#3_1(1:05:07) #3_2(26:16) | ・BERTの概要 | 3_BERT | |||
(5) | 深層学習の基礎 (2021年度開講) | 進化のスピードの速い、この分野において、長く使える普遍的な考え方を身につけることを目的としています。 | 福馬 智生氏(株式会社TDAI Lab 代表取締役社長) 斉藤 史朗 特任教授 | ||
#0(5:17) | ・深層学習の基礎と研究または社会への応用に向けて | ||||
#1(35:57) | ・AIの定義によって深層学習の定義を深める準備をしよう | ||||
#2(38:10) | ・深層学習で何が学習するのか? | ||||
#3(48:46) | ・深層学習はどうやって学習をしているか? | ||||
#4(30:52) | ・なぜ深層学習は画像や音声や自然言語に強いのか? | ||||
#5(43:54) | ・近年進化した深層学習はアノテーションを使っていないって本当? | ||||
#6(48:10) | ・深層学習が時系列を扱う2つの方法 | ||||
#7(35:08) | ・AIが社会に信頼されるために必要な4つの柱(前編) | ||||
#8(43:02) | ・AIが社会に信頼されるために必要な4つの柱(後編) | ||||
#9(39:18) | ・深層学習研究のトレンドとこれから | ||||
(6) | 教師なし学習の基礎と演習 (2022年9月開講) | EDAと教師あり学習に加えて、分析の幅を広げるうえで有効な「教師なし学習」を扱います。項目としては、クラスタリング、次元圧縮、埋め込み、異常検知の各種手法を紹介します。 | 赤間 悟氏(フリーランス ) 斉藤 史朗 特任教授 | ||
#1(2:22:58) | ・クラスタリング1 | 1_クラスタリングについて 1_補足資料_kmeansの派生手法の紹介 |
|||
#2(3:59:08) | ・クラスタリング2 ・次元削減 ・クラスタリングと次元削減を用いた演習 | 2_tSNE_UMAP 2_階層的クラスタリング 2_主成分分析 |
|||
#3(4:12:14) | ・embedding(埋め込み) ・トピック分析の演習 | 3_補足資料 | |||
#4(3:47:51) | ・異常検知 | 4_補足資料_異常検知 |
(準備中)
・コンピュータサイエンス特論
・プログラミング言語特論
2024年10月28日現在
講義 | 内容 | 講師 | 備考 |
---|---|---|---|
(7)コンピュータサイエンス特論 | データサイエンスで用いられる種々の手法を理解するために必要不可欠な、コンピュータサイエンスの基礎について学習します。 | ||
#1(準備中) | 西野 哲朗 教授 | (準備中) | |
#2(準備中) | |||
#3(準備中) | |||
#4(準備中) | |||
#5(準備中) | |||
#6(準備中) | |||
#7(準備中) | |||
#8(準備中) | |||
#9(準備中) | |||
#10(準備中) | |||
(8)プログラミング言語特論 | データサイエンスで必要となるプログラミング言語Pythonの基礎を学習し、実習によって習得します。 | ||
#1(準備中) | 庄野 逸 教授 | (準備中) | |
#2(準備中) | |||
#3(準備中) | |||
#4(準備中) | |||
#5(準備中) | |||
#6(準備中) | |||
#7(準備中) | |||
#8(準備中) | |||
#9(準備中) | |||
#10(準備中) | |||
NEW! (9)確率・統計 | 第一部では確率変数について、第二部では統計の基本的な技法を学び、最後に第三部では、これまでに学習したことを土台にして、実際のデータ分析で用いられる手法について、統計の立場から解説します。 | ||
第1回_確率の基礎 | 原田 慧 教授 | PW::メール通知 閲覧期限:2025/3/31 |
|
第2回_連続値の確率変数 | |||
第3回_多次元の確率変数 | |||
第4回_大数の法則と中心極限定理 | |||
第5回_標本の確率分布 | |||
第6回_点推定と区間推定 | |||
第7回_統計的仮説検定 | |||
第8回_情報理論と統計 | |||
第9回_線形回帰分析 | |||
第10回_ロジスティック回帰分析 | |||
第11回_時系列分析 | |||
第12回_ベイズ統計とモデリング |
(お問合せ先)
・連絡事項、不明点は下記にご連絡ください。
国立大学法人電気通信大学 データアントレプレナーフェロープログラム事務局
E-Mail : defp@sangaku.uec.ac.jp
上記お問合せ対応時間 平日 午前9時 ~ 午後4時
上記時間外のお問合せ等につきましては、翌営業日以降のご対応となりますので予めご了承ください。
なお、非営業日は土日、祝祭日、夏期一斉休業、年末年始となります。