Exploratoryでワードクラウド
Mecabでワードクラウドを作る
英語教材のタイトル画像にしたい
ワードクラウド、というものがある。こんな感じのものだ。
テキストマイニングを学びたくて本を買ってみたものの、Pythonの環境を整えるのが面倒くさくて放置していたものだ。
Exploratoryなら簡単か!?
このページに書いてあることをまるっきりトレースしてみることにする。
安倍首相に関するTwitterデータをテキストマイニングして可視化してみた
検索ワードだけは、「受験」に設定してみました。
Twitterがいる!?
Twitterから、データをぶっこぬくためには、Twitterを連動する必要があるらしい。当たり前か。といわけで、Twitterのアカウントを作成した。
RMecabがいる!?
Mecabとかいうソフト?が必要らしいのでいれる。なんだよめかぶって海藻かよ、って思ってたら、実際日本人作成だった。
Mecabをインストールしたら、続いてRMecabを導入。意外となんという障害も無く進んだ。ちょっと前に、RStudioにPDF吸出し用のなんちゃらいうライブラリを導入しないといけなかったわけだが、Rの知識が皆無すぎてぶん投げた過去があるので心配していたが、安心した。
後はサイトの指示通りに進める
詳細は先のサイトを見るのがはやい。
ただ、詰みかけたところというか、注意点は集計作業の前にグループ化である。これをしないと、Nカウントによるtoken_freqが1種類しかできなかった。分かってしまえば簡単なことだが、気付くまで凄い時間かかった。
そして、まずできたのがこちら。悲喜コモゴモといったところか。
よく見ると、謎の動詞として、「なっ」とか「やっ」とかゴミがいろいろ散らばっている。もっと削らなきゃ。この辺をうまく削るのがデータ処理なのだろうけど、そのうち慣れるでしょう。
その後、名詞だけに絞って集計してみたら、以下になったわけだ。
受験と防災が全く結びつかない訳ですが、それは・・・?とりあえず、東大が多いのはなんか分かる。看護が多いのも、何か分かる。息子、教育ママさんのツイートかな?など、確かにな~という結果に。
この先は、さらにクラスタリングという手法を使って、どのような組み合わせがどのようなグループに属するかを見ることができるというのだが、それはまた次の課題としたい。
環境さえ整ってしまえば、素人でもものの数十分でワードクラウドが出来てしまった。どんどんいろいろ試してみよう。
てか、とっととサブPCに環境を整えたいぞ、っと。