DMM.comラボ勉強会 | Advent Calendar 2015
IT系の勉強会行ってきた Advent Calendar 2015 - Adventarの9日目!
リンク貼ろうかと思ったけどPW必須だったのでやめました…。
DMM.comラボデブサミ限定勉強会(3/4)
DMM.comラボで取り組むモデリングとハンズオン
- モデル=簡素化
視点と用途がありそれに対応するために作成 - モデリング手法
OAUTH 2.0を自前で作る際に4つのモデルを使用
ユースケース図、オブジェクト図、分析クラス図、シーケンス図
→分析も良いけど分析中毒にならないよう適宜相談 - モデリングハンズオン
モデルに正解は無い。その場での最適解を合意を得るようにする
モデルとは頭の中にあるもの!図やUMLはただの表現方法でしかない
設計力やモデリング力のなさが露呈してハンズオンでした…。
ウォーターフォール vs アジャイル
- ウォーターフォール
→全部作る。その為の要件定義や基本設計や詳細設計等の工程が分かれる
メリット:工程管理、スケジュール、ゴールが明確
デメリット:逆戻りできない。リリースまで時間がかかる。上流工程での認識のズレやばい - スクラムやリーン。色々あるよ!
→必要な部分から作成。全ては作らないかもしれない。
メリット:こまめにリリース、変更に強い、仮のゴールでも良い
デメリット:ゴールあやふや、計画むずい、コミュ力は必須 - リリースとは一般公開ではなく内部公開もリリースになりえる
- 作るものが同じならコストや時間は、ウォーターフォールやアジャイルに大差はないやも
→アジャイル宣言も優先度高いものから作っていくだけで、コストに対しての言及はない - リリースタイミング、優先度を決める!基準は絶対に必要
- 手法にこだわらず、効率的なやり方を進化させていく。
- 流行がどうとか今までこうではない。開発手法はメンバーや案件に応じて対応。
DMM.comラボデブサミ限定勉強会(3/11)
Spark X Solrによるリアルタイムトレンド抽出の具体的手法
- Twitterから形態素解析➡商品検索➡トレンド抽出➡クラスタリング
- Hadoopは分散処理がゆえにバッチ処理っぽくなる
Sparkだと基本的にメモリで処理するので早いらしい - SparkはRDDsという単位でデータを扱う
RDDsの集まりがDstream(n秒分のデータみたいな) - Sparkは8Gだとギリギリなので16Gは欲しい
形態素解析とかN-Gramとかの解説が丁寧でわかりやすかった。
SparkStream X GraphXによるトレンド商品のリアルタイムレコメンドの具体的手法
ほとんど理解できませんでした。。。
1ノルム正規化に内積計算とか…事前に触ってないと全然イメージ出来なかった。
- ワード×ジャンル×ベクトル をマッピング
- Pregel、GraphX、KnowledgeGraphとか紹介されてた
- VertexCutで定義されているのが一般的
事前知識が足りなかったです。。。(´;ω;`)ブワッ