こんにちは。
今年、社会人4年目のプログラマー南斎です(northshoreでは“南ちゃん”と呼ばれています)。
northshoreには今年の3月にjoinしました。
プログラマーとしては高校1年からゆるく齧ってきたので、11年目になります。
仕事ではバックエンドをメインでたまにインフラを触ってます。
前職もシステム系のバックエンドエンジニアをしてました。
家ではオンラインゲームとプログラムで引きこもりの覇道を邁進中。
ゲームしてたらこんな補助ツールがあれば...でプログラムを始めて、
いつの間にかそのゲーム自体に飽き始めることも多々。
最近はVRにお熱です。さようなら現実世界。
そんな引きこもりが、残された力を振り絞って行ってきたのが、
2018年7月26日に開催された大型AIカンファレンス THE AI 2nd です。
きっかけは仕事でAIについて調べ始めたからでしたが、
結果的には「何かやらねば…!」
とモチベーションが上がっていたのでいい刺激になったと思います。
今回で第2回目の開催となったTHE AI 2nd、 テーマは「未来ではなく、今のAIを話そう。」でした。
そのため各公演の内容も”今”をターゲットとしていて、
「今 AIを使って何ができる?」「何をしている?」が多かったです。
そして今を踏まえて今後の課題についてどうしていくかがまとめられてました。
選択式の講演だったため全てを聴く事はできませんでしたが、
全体を通して思ったのは、「AIは割とやりたい事を実現できる。」
ということでした。
それと、「AIで判断した結果を誰がどう扱うのかが重要なんだな。」ってことです。
今のAI技術は兎にも角にもデータの量と質が重要です。
実際に、とある案件で画像認識のモデルを作った際は、
思うようにデータが集まらず、精度があがりませんでした。
何より学習モデルを作るより、データの前準備の方が断然大変で…
何かするためにはとりあえず大量のデータをどうにかしなければなりません。
そんな中、判断結果を出す上で、うまくAIを活用したお話しを聞くことができました。
Microsoftの講演にあった「食堂の稼働判定をAIで行った事例」
店長は、“1日辺りどのくらいの売り上げとお客が入るのか”を重要視してますが、
実際にフロアで働く人は、“どの時間帯にどれだけお客がくるのか”ということの方が重要となってきます。
1日単位で見るのか1時間単位で見るのか、それをはっきりとさせた上で、
AIによる判断結果を取り込んだ。
といった内容のお話で、なんて上手なAIの使い方なんだろと思う事例でした。
また、企業ブースも多く展開されていて、面白そうだと思ったものをいくつか紹介します。
SONY の「Neural Network Console」
• GUIとブロック方式で機械学習のモデル生成を行える
• 画像認識や自然言語処理は企業が既に実用済みらしい
• 音声認識はまだ事例がないが作れない事はないとの事
Insight Tech の「不満買取センター」
• 日常の不満を1円から10円で買い取ってくれるアプリ
• 買い取った不満は企業への改善のため収集されている模様
Leep Mind の「DeLTA-Lite」
• 小型のデバイスで機械学習の推論が行えるもの
• デバイス自体にモデルを持っているためネットワークが不要でリアルタイム
• 精度自体はモデルによって異なるがデモ機で置かれていたものは高い制度でリアルタイムな物体判別を行っていた
AIの基礎技術はほぼ固まりつつあるのが今です。
そして基礎技術を応用させてどうAIを使って行くのか、模索するのが未来です。
自分のため、northshoreのために、未来を模索しようと思えたカンファレンスでした。
カンファレンスURL