AIを最新ニュースから学ぶ

AIについて最新のニュースを交えながら学習していきます

オリンパスが精子の運動性を高精度に算出するAIを開発

f:id:AINEWS:20191113235830p:plain

 

今日は、画像からの物体検出するための手法であるフレーム(間)差分について学んでいきましょう。

まずは、オリンパスが11月11日にプレスリリースした以下の記事からどうぞ。


精子の運動性を高精度に算出するAIを開発

オリンパス株式会社(社長:竹内 康雄)は、東京慈恵会医科大学(学長:松藤千弥)と良好な精子の選定作業をアシストする精子判別補助AIの開発を目指して共同研究する中で、精子の運動性を高精度かつリアルタイムで算出することに成功しました。今後は精子の形態を評価するAIの開発に移行し、引き続き、顕微授精作業の負荷軽減と均質化を目指して研究を進めていきます。 

www.youtube.com

情報元:

www.olympus.co.jp


【解説】フレーム(間)差分 f:id:AINEWS:20191114000229j:plain

フレーム(間)差分とは

『動画から物体の移動を検知する手法』のことを指します。

物体検知の手法

物体を検知する方法は、多数ありますが、簡単に実装できるものとして以下の手法があります。

  • フレーム(間)差分:動画をフレームに分割し、フレーム間の差分を検知する。
  • 背景差分:事前に用意しておいた画像との差分を検知する。
  • 色域抽出:画像を色空間(RGB,HSV,Lab等)に分割して検知したい物体の特徴色と比較する。
  • CAMShift(Continuously Adaptive Meanshift):追跡したい物体を選択し、選択した領域の特徴(色相)を計算、物体が移動した際に画面上で計算した特徴が最も近い場所を物体が移動した場所として追跡する。
  • オプティカルフロー:物体が動いたとき、連続するフレーム間では物体の明るさはだいたい同じ、隣接する画素も同じように動くという前提で物体を追いかける。
  • Haarカスケード:画像の一部分を切り出し、局所的な明暗差を算出し、予め学習した顔、目、鼻、口などの特徴量と比較する。このとき複数の識別器を用意して順番に判別していく。1つでも識別器が違うと判断したらそこでおしまい。

 

フレーム(間)差分の実装

フレーム(間)差分をPythonで実装する方法を紹介します。 

ライブラリとしてOpenCVを利用します。"pip install opencv-pthon"でインストールします。

Pythonコード


import cv2

# 1.動画のキャプチャ
cap = cv2.VideoCapture(0) # 内蔵カメラ
# cap = cv2.VideoCapture(1) # USB接続カメラ
# cap = cv2.VideoCapture('movie.mp4') # 動画ファイル

# 2.フレーム分割
prev_frame = cv2.cvtColor(cap.read()[1], cv2.COLOR_RGB2GRAY)
curr_frame = cv2.cvtColor(cap.read()[1], cv2.COLOR_RGB2GRAY)
next_frame = cv2.cvtColor(cap.read()[1], cv2.COLOR_RGB2GRAY)

# 3.フレーム間の差分抽出
diff_prev = cv2.absdiff(prev_frame, curr_frame)
diff_next = cv2.absdiff(curr_frame, next_frame)

# 4.フレーム間差分を表示
try:
    while True:
       # フレーム間差分画像の論理積
       diff = cv2.bitwise_and(diff_prev, diff_next)
       # 画像を表示
       show_image(diff)
       # フレームの更新
       prev_frame = curr_frame 
       curr_frame = next_frame 
       next_frame = cv2.cvtColor(cap.read()[1], cv2.COLOR_RGB2GRAY)  
       # すべて見終わったら終了
       if next_frame is None: break

# なにかキーが押されたら途中終了
except KeyboardInterrupt:
   print('Interrupted')

cap.release()    

住友電工とソフトバンク、 工場での5G活用に向けた実証実験を実施

 

f:id:AINEWS:20191113044851j:plain


今日は、5Gについて学んでいきましょう。

まずは、ソフトバンクが11月12日にプレスリリースした以下の記事からどうぞ。


~5Gを活用して設備の稼働状況などに関する膨大なデータを
リアルタイムに収集し、工場の生産性と安全性の向上を目指す~

2019年11月12日

現在、工場などの製造現場では、IoTやAIを活用し、あらゆる設備の稼働状況や人などの行動をリアルタイムに把握して、設備の稼働率向上や工場内の安全性向上の取り組みがなされています。このためには設備や人、フォークリフトなどの膨大なデータを収集して分析する必要がありますが、近年は特に、カメラを設置してその映像データを活用するケースが増加しており、この映像データの収集に無線通信の活用が期待されています。今回の実証実験では、大容量、低遅延の通信が可能な5Gを活用して、住友電工の工場内に設置されたカメラやセンサーから、設備の稼働状況や人の動きなどのデータをリアルタイムに収集します。収集したデータをAI(人工知能)によって分析し、設備の稼働や人の行動などの変化や異常を自動で検知する検証を行い、5Gを活用した工場の生産性や安全性を向上させるソリューションの構築に向けて取り組みます。
なお、実証実験の開始は、2020年3月を目指しています。

 

実証実験のイメージ

 

f:id:AINEWS:20191113032939j:plain

 

情報元:

www.softbank.jp


【解説】5G

f:id:AINEWS:20191113051241j:plain

5Gとは

『第5世代移動通信システム』のことを指します。

ちなみに現在は、4G(LTE Advanced)です。

 

5Gの特徴

5Gの特徴としては、以下の3つがあります。

 1.高速大容量通信
   下り:最大20Gbps(4Gの場合、最大1Gbps)
   上り:最大10Gbps(4Gの場合、最大数百Mbps)
 2.超信頼、低遅延通信
 3.多数端末との同時接続

今回のこの記事にある工場で5Gを使うということは、『超高速の通信により工場内にある機械、センサーが相互に連携し、効率を大幅にアップする。さらに、AIが分析するのに必要な膨大なデータを超低遅延で収集する。』ことを実証していこうということです。

5G技術を利用したものとして、同じように工場利用の面から、ほかにもコマツが、屋外工事現場での協調に利用しています。
 

5Gを支える技術

5Gを支える技術としては、おもに以下の4つがあります。
  • Massive-MIMO」・・・基地局のアンテナを集約する技術
  • ビームフォーミング」・・・アンテナから一定方向に高い指向性を持つ電波を発信して端末に送る
  • エッジコンピューティング」・・・基地局にエッジサーバーを設置してそこに情報を予め送信しておいて通信を完結する
  • C/U分離」・・・Cプレーンという制御データとUプレーンというユーザデータを分離して遅延してはいけないものを優先的に送付する

5G技術を利用したサービス 

この5G技術を利用して実現するサービスとして以下のようなものがあります。
  • スポーツ中継などマルチアングルによる新たなサービス
  • 自動運転、コネクテッド・カー
  • 遠隔手術
  • 介護
  • デジタルサイネージ(DOOH(デジタル屋外広告)でパーソナライズ化)
  • ウェアラブルで心電図まで測れる、心拍数の上昇でメール自動転送。
  • スマートメーター

おわりに 

5Gの実現により様々なサービスが、期待されており、同時に、5G,AI,IOT等を早く結びつけていかないと、今後、企業の生き残る道はなくなってくるでしょう。
また、今回の実証実験では、AIの技術として、動態検知のため、人、モノを識別するための画像認識技術、 画像からの物体検出するための手法であるフレーム差分 、Haarカスケード、また、設備の異常を検知する変化点検知技術として特異スペクトル変換法などが使われるでしょう。今後、これらの技術の解説、プログラム実装について記載していこうと思います。