トランプ大統領と金正恩氏の類似度を潜在的意味解析で判定する その1
こんにちは、雑魚エンジニアのtoshiです。
最近、トランプ大統領と金正恩氏が似ていると、ネット上で言われるようになってきました。 その証拠に、Google検索で「トランプ 金正日」と入力すると、サジェストに「似てる」という単語が上位に出てきます。
お互い過激な発言が目立ちますから、仕方ないかなぁ、といったところですね。
さて、今回はそんな二人が本当に似ているのかどうか、潜在的意味解析という技術を使って解析してみたいと思います。
潜在的意味解析とは
潜在的意味解析(LSA)とは、文書に存在する単語を用いて、潜在的なトピックを抽出する技法です。
具体的に言うと、文書に存在する単語を出現回数を数え上げたベクトルに変換(Bag of Words)し、SVDによる低ランク近似を行います。
そうすることで、類義語のような、同じような使われ方をする単語が潜在的なトピックとして畳み込まれます。
そのため、単純に文書-単語行列によって類似度を判定するのと比べ、より柔軟に類似度判定を行うことができます。
潜在的意味解析の詳細な説明は省きますが、もう少しわかりやすく知りたければ、以下のあらびきさんのエントリが分かりやすいです(潜在的意味インデキシング(LSI)と書かれていますが、潜在的意味解析と同じです)。
作業環境と手順
以下の環境で作業を行います。
以下のような手順で解析を行っていきます
では、早速やっていきましょう!
1.wikipediaから各国の指導者一覧を取得
Webスクレイピングを行うには、rvestというパッケージが利用できます。 CRANからインストールできますので、しておきましょう。
install.package("rvest")
ちなみにDBpediaからSPARQLでデータ引っ張ってくることも考えたのですが、DBpedia上の各国の指導者一覧ページが最新でなかったため、wikipediaからスクレイピングすることにしました。
さて、各国の指導者一覧のHTMLを読み込むコードを以下に示します。
### 0. 準備 # カレントディレクトリの設定 setwd("~/R_workspace/LSA") # パッケージの読み込み library("rvest") ### 1. wikipediaから各国の指導者一覧を取得 # 各国の指導者一覧HTMLの取得 url <- "https://ja.wikipedia.org/wiki/%E4%B8%96%E7%95%8C%E5%90%84%E5%9B%BD%E3%81%AE%E6%8C%87%E5%B0%8E%E8%80%85%E4%B8%80%E8%A6%A7" data.html <- read_html(url) # 指導者テーブルの取得 html.table <- data.html %>% html_nodes(xpath="//table") %>% .[1] %>% iconv(from = "UTF-8", to="UTF-8")
read_html関数でHTMLを読み込んだ後、html_nodes関数でタグを指定してやることで、そのタグを持つHTMLコードだけを取得できます。 今回はtableタグを指定しているので、テーブルだけが取得できています。
目的のテーブルは1番目のテーブルなので、1番目の要素を取り出し、iconv関数で文字化けを解消しておきます。 iconv関数は文字コードを変換するためのものですが、これをしておかないととんでもなく文字化けするので、重要です。
さて、本来であればここからhtml_tableという関数を用いることでテーブルの各セルの要素を取り出すことができるのですが、
- html_table関数では結合セルをうまく扱えない
- html_table関数では要素だけをdata.frameに変換するためハイパーリンクが取り出せない
ことから、自力でHTMLコードを解析していきたいと思います。
少し煩雑になりますが、以下がテーブルのHTMLから各要素を取り出すコードです。
# trタグで分割して、各行のデータを取り出す html.leaders <- html.table %>% strsplit("<tr>") %>% .[[1]] # 各指導者ごとにデータを作成 len <- length(html.leaders) table.leader <- data.frame("国名"=rep(NA, len - 2), "役職"=rep(NA, len - 2), "名前"=rep(NA, len - 2), "URL"=rep(NA, len - 2)) # HTMLを自力で分解する # 1,2行目はヘッダなのでスルー for(index.loop in 3:len){ # tdタグで分割 td.vec <- html.leaders[index.loop] %>% strsplit("<td") %>% .[[1]] # td.vec[1]から国名を取得 # 結合セルの関係で既に埋められている場合スルー if(is.na(table.leader[index.loop - 2, "国名"])){ # 結合セルだった場合,先のデータも埋めるため変数にrowspanを代入 if(length(grep("rowspan", td.vec[1])) > 0){ rowspan <- td.vec[1] %>% strsplit("rowspan=\"") %>% .[[1]] %>% .[2] %>% strsplit("\"") %>% .[[1]] %>% .[1] %>% as.numeric() } else { rowspan <- 1 } # タグの後ろにある要素を取り出す td.split <- td.vec[1] %>% strsplit(">") %>% .[[1]] for(sub.loop in 1:length(td.split)){ # 国名はaタグの終わり前にあるため,</で分割できた0文字以上の要素を取出 temp.data <- td.split[sub.loop] %>% strsplit("</") %>% .[[1]] if(length(temp.data) > 1 & nchar(temp.data[1]) > 1){ # 結合セルの場合、複数セル分の国名を代入する start <- index.loop - 2 end <- start + rowspan - 1 table.leader[start:end , "国名"] <- temp.data[1] break } } } # td.vec[2]から役職を取得 # 結合セルの関係で既に埋められている場合スルー if(is.na(table.leader[index.loop - 2, "役職"])){ # 結合セルだった場合,先のデータも埋めるため変数にrowspanを代入 if(length(grep("rowspan", td.vec[2])) > 0){ rowspan <- td.vec[2] %>% strsplit("rowspan=\"") %>% .[[1]] %>% .[2] %>% strsplit("\"") %>% .[[1]] %>% .[1] %>% as.numeric() } else { rowspan <- 1 } # タグの後ろにある要素を取り出す td.split <- td.vec[2] %>% strsplit(">") %>% .[[1]] for(sub.loop in 1:length(td.split)){ # 役職名もaタグの終わり前にあるため,</で分割できた0文字以上の要素を取出 temp.data <- td.split[sub.loop] %>% strsplit("</") %>% .[[1]] if(length(temp.data) > 1 & nchar(temp.data[1]) > 0){ # 結合セルの場合、複数セル分の役職名を代入する start <- index.loop - 2 end <- start + rowspan - 1 table.leader[start:end, "役職"] <- temp.data[1] break } } # 名前が入っているデータのインデックスを設定 name.index <- 3 } else { # 役職が結合セルの場合,名前が入っているインデックスがずれるので補正 name.index <- 2 } # 名前とURLを取得 # タグの後ろにある要素を取り出す td.split <- td.vec[name.index] %>% strsplit(">") %>% .[[1]] for(sub.loop in 1:length(td.split)){ # リンクが存在する要素にリンクと名前が入っているため、href="で分割 temp.data <- td.split[sub.loop] %>% strsplit("href=\"") %>% .[[1]] if(length(temp.data) > 1){ # URLと名前をそれぞれ取り出して記録 temp.data <- temp.data[2] %>% strsplit("\"") %>% .[[1]] table.leader[index.loop - 2, "URL"] <- paste0("https://ja.wikipedia.org", temp.data[1]) table.leader[index.loop - 2, "名前"] <- td.split[sub.loop + 1] %>% strsplit("</") %>% .[[1]] %>% .[1] break } } } # 一人の人物が複数の役職を兼任している場合,2つ目の役職の名前とURLにNAが入っているので削除 table.leader <- na.omit(table.leader)
だいぶ愚直に書きましたが、いちおうこれでテーブルのHTMLから各国の指導者情報を取り出すことができます。 HTMLの構造が変わると対応できない等、結構クソコードな気はしますが……
まぁ、スクレイピング部分は今回のお題の本質的な部分ではないので良しとしましょう(^_^;)
さて、中身を確認してみましょう。
# ちゃんと取れているか確認 View(table.leader)
どうやらちゃんと取れてそうですね。
では、このデータを保存して、余分な変数を削除しておきましょう。
# table.leaderの保存 save(table.leader, file="./table_leader.Rdata") # 要らない変数を削除 rm(list=ls()) gc(); gc();
2.各国の指導者の各ページから説明文を抽出
各国の指導者の説明文も、rvestパッケージで取得することができます。
前回はテーブルの読み込みだったため html_nodes関数においてtableタグを指定しましたが、今回はpタグを指定して読み込みましょう。
以下に、それぞれの説明文を取得するコードを示します。
### 2. 各指導者のWikipediaページから説明文を取得し保存する # table.leaderの読み込み load("./table_leader.Rdata") # 説明文の保存先作成 path.dir <- "./desc" if(!file.exists(path.dir)) dir.create(path.dir) # 全指導者の説明文を取得し保存 for(index.loop in 1:nrow(table.leader)){ # URL設定 url <- table.leader[index.loop,4] # タイムアウトの回数を記録する変数の作成 timeout.count <- 0 # データの取得 while(TRUE){ data.html <- try(read_html(url), silent = FALSE) # データが取得できた場合と,404エラーの場合は次の処理へ if(class(data.html)[1] != "try-error"){ break } else if(length(grep("error 404", data.html[1])) > 0){ break } # タイムアウト等のエラーの場合は5秒まってリトライ Sys.sleep(5) # タイムアウトの回数を記録し、10回連続失敗したら諦める timeout.count <- timeout.count + 1 if(timeout.count >= 10) break } # 記事が存在しない場合はスルー if (class(data.html)[1] != "try-error" & timeout.count < 10) { # 本文の取得 sentence.main <- data.html %>% html_nodes(xpath="//p") %>% iconv(from = "UTF-8", to="UTF-8") # 全文の結合 sentence.main.all <- paste(sentence.main, collapse = "") # タグと参考文献の削除 sentence.main.notag <- gsub("\\[.*?]", "", gsub("<.*?>", "", sentence.main.all)) # 括弧書きの削除 sentence.main.notag <- gsub("(.*?)", "", gsub("\\(.*?)", "", sentence.main.notag)) # 説明文を保存 filename <- paste0(path.dir, "/", paste(table.leader[index.loop,1:3], collapse=" "), ".txt") write(sentence.main.notag, filename) } cat("finish : ", index.loop, "/", nrow(table.leader), "\n") } # 要らない変数を削除 rm(list=ls()) gc(); gc();
後にRMeCabを用いて文書-単語行列に変換するために、それぞれの説明文を「国名 役職名 人名」のファイル名で保存しています。
さて、ちゃんと取れているか、保存したテキストファイルを確認してみましょう。
長いですが、取れてそうですね。
続きは次回の記事で
まだ下準備しかできていませんが、だいぶ長くなってしまったので、続きは次回記事で紹介したいと思います。
果たしてトランプ大統領と金正恩氏は似ているのか!?
乞うご期待です!
次回記事はこちら
CEATEC 2017 に行ってきた
毎度おなじみ、IT技術とエレクトロニクスの国際展示会のCEATECに行ってきました!
個人的に気になったやつを紹介していきます!
CASIOさんの2.5次元プリンター Mofrel
これは一目見てすごい!といえる機器でした。
2.5次元という名の通り、表面形状を自由に変化させ、凹凸を表現できるプリンターです。
これの凄いところが、3Dプリンターのように物質を積層するのでなく、紙そのものを膨張させて立体を表現しているところです。
そのため、3Dプリンターのように多大な時間をかけることなく、3~6分程度で立体を表現できてしまいます。
それだけスピーディにも関わらず、精巧さはかなりのものでした。
ただ、弱点として
- 凹凸の表現が1.8mmまでが限界
- 専用紙が1枚1000円ほどと高額
などがあるそうです。
今は製品プロトタイプの作成などで使ってほしいとのことでしたが、コストもかかりますし、どういう分野に活用していけるかを考えるのが今後の課題になりそうですね。
残念ながらコンシューマ向けに出てくることは当分ないでしょう。
これで年賀状作ってみたかったな(´・ω・`)
ASUKANETさんの空中ディスプレイ
これも、かなりインパクトのある製品でした。
表示している画面が、空中に浮き出て見えるディスプレイです。
そこにあるのに触れない、という不思議な感覚を味わうことができます。
実に未来感のある製品ですね!
視野角は結構限定されていて、特定の位置に立たないと立体には見えづらいです。
逆にそれを利用して、ATMの操作インターフェースに使おうという考えもあるみたいですね。
ちなみに、逆側の展示できれいなお姉さんが飛び出る展示をやっていましたが、超絶混雑で見れませんでした……
Twitterとかでかなり話題になっていましたね。
2次嫁と生活できる日も、そう遠くはないかも?笑
4年連続!オムロンさんの卓球ロボ フォルフェウス
CEATEC参加者にはおなじみですね。4年連続の出展のフォルフェウスさんです。
今年はサーブ機能とスマッシュ機能が搭載されたらしいです。
サーブはちゃんとトス→打球でできていて凄かったです。ボールのトスまで時間がかかるのがネックですが……
スマッシュは見れなかったですね。
ちなみに私も体験してみましたが、どこに打っても大体返してくれるので凄いです。ロングは少し苦手なようですが。
ただ、ラケットのラバーがツルツルのカスカスですごいやりづらい……打っても全然飛びません
がんばってループドライブ打ってみたところ、普通にオーバーしていたので、まだ回転には対応できてないみたいですね。
来年にはどこが進化するのか楽しみです。
話題のブロックチェーン!MUFGさんのMUFGコイン
満を持しての登場ですね。かなり前から話題になっていました。
MUFGコインは1コイン=1円と固定された価値をもつコインなので、実質電子マネーみたいなものですね。ビットコインみたいな投機には使われません。
電子マネーとの違いは、個人間でコインのやりとりができるところで、例えば割り勘のときに皆からコインを集めたりできます。
送金手数料もかからないので、かなり取り回しは良さそうですね。
ではどうやって儲けるのか、というと、このコインでの収益は一切期待していないそうです。
MUFGがこのコインを出した理由としては、ブロックチェーン技術に対する危機感。
ブロックチェーン技術が、もしかしたら銀行の存在価値を奪ってしまうかもしれない。
そんな破壊的イノベーションが起こったときに、生きる術としてブロックチェーンに乗り換えられるように今のうち技術を作っておく、というアプローチのようですね。
対応サービスが増えればなかなか使えるようになると思います。
流行のチャットボット
WatsonサミットやビッグデータEXPOなんかでもそうでしたが、相変わらず流行ってますねチャットボット。
CEATECでは会話できるロボットやARのキャラクターなどが多数展示されていました。
Watson先生万歳かと思いきや、意外と内製のエンジン使ってるとこも多かったです。
Nextremerさんの浅草観光案内ロボ AI-SAMURAI
浅草の観光情報を学習したチャットボットを搭載した観光案内ロボ。
内製のエンジンを使用しておりDeepLearningは使ってないらしいですが、精度は良かったです。
浅草のオススメのお土産を聞いてみたら芋ようかんをおすすめされました 笑
豆蔵さんのチャットボットエンジン
とにかく軽量で、スタンドアロンでも動きます、ということを売りにしたチャットボットエンジン。
簡単に辞書も追加できて、クラウドに接続しなくてもいいです、という非常に取り回しの利く感じはよさそうだった。
ラズパイでも動くというのがすごい。
Panasonicさんの幼児向けソーシャルロボット cocotto
ものすごく軽快に動き、ひときわ目を引いていたロボット。
この笑顔といい、とってもかわいらしいですね。一人暮らしの寂しさを紛らわすにはいいかも?笑
動きのデモだけだったので、会話性能は不明。
バンダイナムコさんのガンシェルジュ ハロ
これはいろいろと話題でしたね。
私はあんまりガンダム詳しくないですが、再現度は高いのではないでしょうか。
会話内容がめっちゃガンダムなので、ガンダム好きにはたまらない一品だと思います。
KDDIさんのヨリソイ型ハーフヒューマノイド レナ
5Gの説明をしてくれるARキャラクターです(かわいい)
LTEの説明ができないなど、中身は結構へっぽこでしたが…… 笑
詳しく聞いてみると、他社製のエンジンをつかっているらしく、適当なことを言うと取り合えずなんか返事しちゃうあたりDeepLearningっぽい挙動でした。
まとめ
やはりCEATECは未来感を感じさせてくれる楽しいイベントです。
今回もいろいろとワクワクさせられました。
空中ディスプレイなんかは特に、サイネージのあり方を大きく変えそうです。
今回は紹介しませんでしたが、VRの展示もかなり流行っていて、いろいろなコンテンツが紹介されていました。
エンターテインメント分野での発展も、今後楽しみですね。
Amazon Echoを買う前に考えたい3つのリスク
こんにちは。 雑魚エンジニアのtoshiです。
遂に、Amazon Echoの日本での発売が発表されましたね!
米国でも品切れ状態が続いているらしく、大注目の商品です。
個人的にも、こういう未来感のあるデバイスはワクワクします。
さて、いろいろと期待が膨らむAmazon Echoですが、実は米国ではいろいろな問題が発生しています。
今回は日本に上陸する前に、Amazon Echoのリスクに関してまとめてみたいと思います。
リスク1:テレビの声に反応して誤動作する
Amazon Echoには個人認証機能がありません。
それゆえ、所有者本人でなくても、テレビの登場人物であっても操作が可能なのです。
実際の事例として、アニメの声に反応して誤動作した事例がありました。
これは、米国の国民的アニメ“サウスパーク”の一場面で、アニメ中のキャラクターがAmazon Echoへ命令した結果、実際にTVの前に設置したAmazon Echoが反応してしまった事例です。
今回はカートに変なものが追加される程度でしたが、その気になればアニメDVDを大量に購入させることもできるかもしれません。
対策としては、Amazon Echoは設定を変更することで起動ワードを変えたり注文時にパスワードを求めるようにしたりできるそうです。
可用性と機密性のバランスをしっかりと考えて、初期設定を万全に行いたいですね。
リスク2:子供に操作されてしまう
問題点1とも関連しますが、使い方さえ覚えてしまえば子供でもAmazon Echoに命令を出すことができます。
実際の事例として、アメリカの6歳の女の子が親に内緒で160ドル分のドールハウスとクッキーを注文してしまったという事例があります。
最近は子供が親のスマホのロックを突破して、勝手に使ってしまうといった話も聞きますよね。
それと同じように、たとえAmazon Echoにパスワードを設定したところで、子供は親の注文のときのセリフを覚えてAmazon Echoのロックを突破してしまうかもしれません。
注意しておかないと、親は知らぬうちに子供に大量のプレゼントをしてしまうハメになってしまうかも……
また、そのニュースをテレビで放映したところ、視聴者のAmazon Echoがそれにまた反応してドールハウスを注文しようとしたという笑えない話もあります。
まさに問題点1が発現した事例ですね。
これは実際に注文までいってしまった人もいるらしく、番組に相当数の苦情が入ったとか。
対策としては、Amazon Echoは声による注文をオフにすることができるようなので、安全性を考えると注文はできない設定にするのが良いかもしれません。
自分もまったく注文できなくなるのは残念ですが……
リスク3:DolphinAttackにより攻撃される
音声認識のデバイスを攻撃する手段としてDolphinAttack(ドルフィンアタック)と呼ばれるものがあります。
【ドルフィンアタック】スマートスピーカーはハッキング可能!? 「人間に聞こえない音声で操作可能」との論文が発表 | ロボスタ
これは、人間には聞こえない音声で音声認識デバイスを攻撃する方法で、持ち主に気づかれずに任意の命令を実行させることが可能です。
DolphinAttackに関して書かれた論文では、iPhoneのSiriやAmazon Echoなど、16種類のハードウェア、7種類のAI音声アシスタントで操作できることが報告されています。
iPhoneなどは基本的に常に携帯するのものなので、もしDolphinAttackをかけられても音声の返答があるため異変に気付くことは容易です。
しかし家に常備するAmazon Echoは留守中など、そばを離れていると時に操作されると気付くことができません。
使わないときは必ず電源をオフにしておくなど、厳密な管理が必要となるかもしれませんね。
まとめ
Amazon Echoのリスクを3つ紹介しました。
どれも金銭的な実害を及ぼす可能性があり、危険性は小さくありません。
しかし、Amazon Echo自体はすばらしい製品だと思いますし、人々の生活を変えていく可能性にワクワクしています。
ユーザみんながリスクをちゃんと把握して、正しい設定と正しい運用方法で対策をしていくことが重要ですね。
日本での発売日が楽しみです!
Mercari Tech Conf 2017 に行ってきた
昨日、Mercari Tech Conf 2017に行ってきました。
スタートアップからどうやってここまで成長してきたのか、どういったことを大切にしてきたのか、といった話があり、非常に参考になりました。
また、最近元Facebook社VPのジョン・ラーゲリン氏がCBOに就任した等のニュースで海外展開も注目を集めている同社ですが、今回の聴講で海外に対する本気度が良くわかりました。 今後グローバルでも順調に拡大していきそうです。
今回のカンファレンスで参考になった点をまとめていきます。
スタートアップからどうやって急成長を遂げたのか
メルカリは創業からまだ4年半ほどにも関わらず、時価総額は1000億円以上ともいわれ、とんでもない急成長を遂げています。
しかも、創業時点で競合アプリはかなりあったらしく、それらを乗り越えてここまできています。
その急成長の背景には、主に二つの理由があるようです。
とにかく素早く
- ミーティングはほとんどせず、週一回の定例ミーティングくらいで収める
- インフラのスケールを初めから想定するのでなく、破棄する前提で構築
- 初期の段階では検索機能をつけない
かなり大胆な意思決定をされています。
特にインフラの話が凄まじく、いろいろ後のことを考えて導入が遅くなるくらいなら、シンプルな構成でとりあえず参入しよう、という実に勇気ある決断です。
また検索の話も驚きで、アプリの特性上絶対に必須じゃないの、と私なんかは思ってしまいます。
しかし、検索機能の追加はエンジニアとしては非常に重労働で、検索精度を高く保つのも大変です。 なので、中途半端なものを作ってお客様を落胆させるくらいなら、いっそ作らない!という男気ある決断をしたそうです。
やはりリソースを裂くところをしっかり見極めることは、かなり重要ですね。
“顧客の出品体験”というUXを最重要視する
- 画像を軽量化して表示速度を向上
- HTML5ではなくNativeで開発することでタイムラインの表示を高速化
表示速度 >>>>> エンジニアの手間 という考えで、どれだけ手間をかけてでもUX改善のために表示速度の向上にこだわったそうです。
他者と比べて圧倒的な“快適な出品体験”を実現できたことが、ひしめく競合の中を抜きん出られた最大の要因のようですね。
グローバルで成功する戦略
国ごとにUIを最適化しているようで、なんと驚くべきことに海外向けにUIをスクラッチで再開発したそうです!
ただこれ、かなり効果は抜群だと思われます。
かのパズドラが大成功を収めたのも、「電車でつり革につかまりながら片手でプレーできる」といった、ユーザの背景をしっかりと想定して作られたことが大きかったと言われています。
国ごとに違うユーザの背景にあわせて、手間隙惜しまず最適なUIを作りこんでいく。
このUXへのこだわり、海外でも成功する未来が見える気がします。
未来が垣間見える機械学習の活用
メルカリは大量に蓄積される商品画像を用いて機械学習の活用も進めているようです。
確かに、説明文や価格、購買の有無など様々な付加情報の付いた画像データが大量にあるわけだから、活用しない手はないですね。
現在、商品画像からのカテゴリ識別、ブランド予測、価格推定などを行っているようです。これができれば、出品物の写真を取るだけで多くの項目をAIが自動的に埋めてくれるようになるわけですね。めっちゃいいなー
カテゴリ認識はCNNを用いており、Inception-v3(2014年の一般物体認識のコンペで優勝したGoogLeNetの改良版)をファインチューニングしたみたいです。
カテゴリ認識のエラーレートは29.3%と、一般物体認識に比べると精度は少し低めです。
どうしようもないものとしては、その他カテゴリの商品や、女性用上着 or 男性用上着 or 子供用上着の分類などがあるみたいです。 画像だけではサイズがわからないため、分類できないみたいですね。
こういうどうしようもないのを除くと、やはりマイナーな商品が難しいようで、例としてルーピングという幼児向けのおもちゃが紹介されていました。
↓こんなやつ www.amazon.co.jp
確かにマイナーそう……
データが足りないからデータを増やせるようにがんばります!といっていましたが、データオーギュメンテーションとかはしてるんだろうか? まぁ登壇者は相当機械学習に詳しそうだったし、当然トライはしてるよね。
ちなみに画像データは5000万枚くらい使ったりしてるそうです。それで足りないとは恐ろしいですね。 まぁ出品物によって偏りが出るのは仕方ないし、スキューなデータをいかにうまく扱うのかというのがデータサイエンティストの腕の見せ所ですね。
まとめ
急成長の裏には、顧客のUXを最大化するというしっかりとした戦略があったことがわかりました。
海外展開にも同様の戦略の元、手間を惜しまず取り組まれており、海外でも明るい未来があるように感じます。
また、機械学習を活用してワクワクするような機能を開発されており、今後の機能拡張が楽しみです。 (機械学習の適応先として、問い合わせへの一次返答ってあったけど、C2Cの問い合わせも対応してるのかな。あらかじめいくつかの項目埋めとけば、あとはAIが勝手に問い合わせ処理してくれるとか超ワクワクだよね)
今後のメルカリの発展に、目が離せませんね。
上場マダカナー
おまけ
おみやげいっぱいゲットしました。
来年も是非参加したいです!
気まぐれでブログを作ってみたのでとりあえず自己紹介
はじめまして。社会人4年目、雑魚エンジニアのtoshiです。
これまでのうのうと雑魚エンジニア生活を過ごしてきましたが、最近組織変更があり「Ruby on Rails!?何それ!?」とか「GO言語!?それって美味しいの!?」とか言ってたら周りから白い目で見られるようになってきたので、勉強しなきゃという危機感を覚えております。
今までもMOOC1なんかを利用してちまちま勉強してきましたが、いかんせんやる気が出きらずにあまり進まず、雑魚レベルから抜け出せずにいました。
そこで、一念発起、技術ブログを始めて「ブログのネタを作るために勉強しなきゃ!」とやる気を出す作戦に出たのです!
可能な限り、取り組んでいった技術的な内容を記事にしていきたいと思っているので、よろしくお願いします。
自己紹介
職業 : 某メーカー エンジニア
専門 : データ解析、機械学習
得意技は「とりあえずRandomForest」使用言語 : R、Python、C#
仕事ではR、趣味ではC#を使うことが多いです。
PythonはDeep Learningのために仕方なく……資格 : 基本情報処理技術者、応用情報処理技術者、ダイエット検定1級(プロフェッショナルアドバイザー)
ダイエット検定は“健康なエンジニア”をアピールするために取りました(笑)趣味 : ゲーム、筋トレ
ゲームは音ゲーをまったりやってました(beatmania SP9段、pop'n music 最高47安定45、チュウニズム レート12)。最近はご無沙汰ですが……
あと最近、英語物語というスマホアプリをしています。楽しく英語が学べていいですね!
筋トレは“健康なエンジニア”をアピールするために(ry
何はともあれ、とりあえずは継続していけるようにがんばります!
-
Massive open online courseの略で、インターネットを用いた大規模公開オンライン講座のこと。↩