RPA (Web情報回収001_作成イメージ)

■RPAでWebから情報を集める仕組みを作ってみる。

企業での業務の自動化などでよくいわれるRPAだけど、企業では他部門から上がってきた成果物を上司への報告用に加工したり、情報の一部を切り取ってさらに別部門に送ったりする使い方があると思う。例えば、月の売り上げを整理したりする業務があれば、1年間で12カ月分、12回のルーチンワークが出てくる。
企業は横や縦のつながりからそういうものが必要なんだろうけど、自分が個人で使う場合ではどうだろう。別に定期的に行っているルーチンワークがあるわけでもないし。

プログラミングなどしていれば、テストの操作の自動化みたいなこともできるかもしれないけど、そもそもパソコンの使い方としてネットサーフィンをするくらいしか使っていないからなー。ネットから自動で情報収集するような仕組みはどうかな。

流れとしてはこんな感じ。
1.指定のサイトへアクセス(情報が羅列されているところ、商品紹介など)
 ↓
2.必要な情報のコピー(名称などで検索)
 ↓
3.Excelへの貼り付け
 ↓
(2, 3の繰り返し)
 ↓
4.Excel中のデータの加工(見やすさ or 今後の利用に向けて)

製品情報を取得して整理するようなことを手作業で行うと、該当する部分のコピー・貼り付けの繰り返しとなる。このあたりはルーチンワークとなるため、RPAでの自動化に向いているのではと思う。また、日単位、週単位など時間とともに更新していくものであれば、逐一そんなルーチンワークを行うのも手間なので、自動化の意味も出てくるかな。
できれば数値のデータがあるものの方がいろいろとできそうだけど、サンプルとして使えそうなものは何かないものか。